L’UNIVERS DES RISQUES EST-IL EN EXPANSION ?
C’est la question que Denis Kessler, patron de SCOR, un des leaders mondiaux de la réassurance, a soulevé lors d’une récente conférence. Et sa réponse est clairement oui !
Alors que l’on a pu penser au début de l’époque moderne
que les risques allaient décroître avec l’avènement de la
science, force est de constater qu’il n’en a rien été.
Les risques naturels (volcans, tsunamis, etc.) ne se sont pas plus
nombreux qu’avant mais leurs effets sont démultipliés par le
développement de la population humaine. Et de nouveaux risques,
crées par l’homme lui-même, sont apparus (effet de serre lié à
l’énergie carbonée, risque associé à l’énergie
nucléaire, etc.). Enfin, la grande transformation en cours de nos
sociétés entraîne un niveau d’interdépendance jamais vu depuis
les débuts de l’humanité.
Cette transformation bouleverse désormais l’ensemble des
secteurs de l’activité économique. Les barrières à
l’entrée se sont abaissées permettant à de nouveaux acteurs
d’investir des territoires vus il y a peu encore comme
impénétrables : Tesla, nouveau constructeur automobile ou encore
Amazon, distributeur de stature mondiale et possible numéro un
demain. La chaîne de valeur s’est déplacée dans les missions
amont des entreprises (conception, design, marque, organisation
logistique) ou de distribution aux dépens de la production. Cette
production est désormais largement mondialisée : les entreprises
leaders contrôlent l’amont et l’aval de la chaine de
valeur et font appel à des très nombreux sous-traitants pour
produire les articles qu’elles ont conçus et qu’elles
écoulent (cf. Pierre Veltz – La société hyper industrielle). Cette
économie des entreprises « plate-forme » augmente les interactions
et les interdépendances dans la sphère de production mais stimulent
également les relations avec le consommateur final.
Les consommateurs, qui se sont saisis rapidement des bénéfices de
cette transformation, ont accentué ses effets en adoptant de
nouveaux comportements, de nouvelles pratiques. Ils ont notamment
pleinement tiré parti des trois révolutions du WEB selon la
terminologie que j’emprunte à Caroline Faillet (cf.
L’art de la guerre digitale). Le Web 1.0 leur a permis de
s’informer et de renverser l’asymétrie
d’information entre les consommateurs et les marques. Le Web
2.0 leur a permis de se mobiliser au travers des réseaux sociaux.
Enfin le Web 3.0 les transforme en consommateur augmenté : il
devient loueur (de sa maison, de sa voiture, etc.), financeur (via
les plate-formes de crowd funding), prescripteur (au travers des
blogs spécialisés en cuisine, en beauté, etc.) ou encore co-créateur
(cf. le cas Lego).
Se développe donc côté consommateur aussi un grand nombre
d’interactions. Toutes ces interactions, ces interdépendances
ont pour conséquence de rendre le monde beaucoup moins prévisible et
sujet à des crises extrêmement aigües : crises sanitaires pour des
filières agricoles, scandales pour des marques, rupture
d’approvisionnement pour des entreprises, etc. Autant de
témoignages qui étayent ce constat.
C’est dans ce contexte de risque accru, de prévisibilité
réduite que les décideurs doivent opérer des choix, des choix plus
incertains, des choix dont les conséquences peuvent se révéler plus
désastreuses. De nombreuses sociétés ont rejoint, rejoignent ou
rejoindront, la société Kodak, une des premières victimes de ce
nouvel environnement.
« A MESURE QUE CROÎT LE DANGER, CROÎT AUSSI CE QUI SAUVE »
Cette citation du poète Hölderlin n’est pas récente, il s’est éteint voici plus de 200 ans. Mais elle me semble d’une actualité brûlante ! Le danger qui croît aujourd’hui pour les décideurs, c’est donc les risques, l’imprévisibilité croissante du monde qui nous entoure.
Et qu’est-ce qui pourrait croître et sauver dans le même temps ? Les données ! Corolaire du nombre croissant d’interactions et de la révolution numérique, le volume de données croît lui aussi de façon exponentielle. Le calcul de ce volume fait apparaitre sa démesure : 40 milliards de milliards de données exploitables en 2020 (Source Hub One). A priori, c’est encore plus que le nombre de grains de sable sur la terre !
La donnée, naguère encore coûteuse et longue à produire, se génère à très grande vitesse et à (relativement) peu de frais. On pense bien entendu au Web et à toutes les traces, tous les signaux que nous laissons ou émettons sur la Toile. On pense aussi aux organisations au sens large (entreprises, institutions, etc.) qui produisent toujours plus de données sur leurs clients, par exemple au travers de bases de données CRM, des interactions générées sur les chats, des pages Facebook, etc. On pense encore au développement des applications smartphones, des objets connectés, des plate-formes collaboratives, et bien d’autres nombreuses sources.
Si ces données peuvent être produites pour le seul usage de leur propriétaire, on observe également que de plus en plus d’organisations décident de mettre à disposition tout ou partie des données qu’elles produisent, de façon plus ou moins ouverte. La France est devenue le 4ème pays Open Data dans le monde (voir le baromètre de l’open data publié par World Wide Web Foundation).
Alors comment faire pour que ce développement des données puisse aider les décideurs à mieux naviguer dans cet océan d’incertitudes, en évitant les écueils et en profitant des vents favorables ?
La pire situation, et elle est tout sauf impossible, serait que ce déluge de données ne se transforme en écueil supplémentaire pour les décideurs, ajoutant encore à la confusion ambiante, nourrissant le sens dessus-dessous. Pour qu’elles aident à la décision, ces données supplémentaires doivent être contextualisées. Il s’agit de leur donner du sens, c’est-à-dire de transformer la data en information, et l’information en connaissance et enfin la connaissance en décision.
Les instituts d’études disposent, me semble-t-il de sérieux atouts pour le faire. Fondamentalement, le développement de cette activité économique repose sur le besoin des décideurs de réduire les risques pris (« Dois-je investir dans cette nouvelle usine, dans cette campagne publicitaire, etc. ? ») ou de saisir les opportunités de marché (« Y-a-t-il un potentiel pour mon offre dans ce pays, auprès de cette cible? »).
Par ailleurs, la connaissance accumulée par les instituts sur les consommateurs et les marchés permet de contextualiser ces données, de les mettre en perspective. Bref, de leur donner du sens !
Quel talisman peut permettre aux instituts de répondre à ce défi ? L’hybridation de ces nouvelles sources de données avec les données déclaratives, cœur de leur métier historique. Les données déclaratives éclaireront les observations faites sur les données non déclaratives, les données déclaratives apporteront de la robustesse (fréquence, volume, etc.). Le fruit de cette hybridation sera le sens donné à l’ensemble.
Au-delà, et cela nous semble également un bel et noble idéal, cette approche nous évite de nous en remettre aux seuls algorithmes pour remettre l’humain au centre de tout.
Cela demande en revanche de la part des instituts la capacité à acquérir de nouvelles compétences et/ou de s’associer pour leur permettre de disposer de tout l’éventail nécessaire des savoir-faire à la mise en œuvre de cette promesse.
CONTRE QUOI CE CHANGEMENT DOIT-il LUTTER POUR ADVENIR ?
Comment expliquer que cette approche soit pour le moment relativement faiblement utilisée par les annonceurs ? A quelles résistances devons-nous faire face ?
Disposer des compétences techniques et des outils permettant de traiter des volumes importants de données est une nécessité. Il ne faut ni négliger cette question ni l’amplifier outre mesure : la recherche de corrélations dans un jeu de données n’est pas tout à fait une nouveauté par exemple !
Dans toute évolution, le facteur technique est cependant rarement un facteur bloquant. Un autre frein à cette hybridation, plus robuste, est la croyance selon laquelle il est possible de tout faire avec les données non déclaratives. Dans un certain nombre de cas de figure, c’est tout à fait entendable. Je pense par exemple aux ajustements tactiques, aux optimisations dans les relations ou les interactions digitales. Des protocoles d’A/B testing peuvent tout à fait répondre à ces besoins, sans nécessité d’intégrer un retour consommateur, sinon par son comportement, sa réaction aux différentes variantes testées.
Mais lorsque le balancier va trop loin, que cette posture est érigée en paradigme – et j’ai le sentiment que nous en sommes là aujourd’hui – interroger le client de façon déclarative ne sert à rien. Le consommateur raconte n’importe quoi. Il ne sait pas ce qu’il veut, et, si on l’avait écouté, Henri Ford aurait fait des carrosses à huit chevaux pour aller plus vite et n’aurait pas inventé la Ford T. Bref, il devient l’empêcheur de tourner en rond !
Réduire l’individu à son comportement passé ou aux comportements passés de ses semblables (ses « look alike ») pour déterminer son comportement à l’avenir nous parait être une posture contestable à plusieurs titres. N’est-il pas incongru à l’heure où l’on constate partout l’autonomisation, l’encapacitation du consommateur (je préfère l’inspiration canadienne à l’anglicisme « empowerment » !) de se passer de son expression ? N’est-il pas étonnant de ne pas profiter au contraire de son inclination à collaborer, de tirer parti de la force de la multitude selon le bon mot de Nicolas Colin et Henri Verdier (cf l’ouvrage « L’âge de la multitude), de ne pas négliger un des (f)acteurs clés du succès des marchés bi-faces (Jean Tirole) ?
Plus simplement, la réaction des consommateurs aux approches trop directes, trop automatiques démontre qu’une considération insuffisante du consommateur entraine de sa part un rejet. Une enquête conduite pour l’IAB sur le taux d’utilisation des Ad Blockers par les Français indique une progression de 30 à 36 % en l’espace de 12 mois. La question, sensible dans l’opinion publique, de la propriété des données et de l’usage des données personnelles se pose aujourd’hui et sera probablement plus aigüe encore demain, au moins dans les pays européens. On voit bien qu’il y a besoin d’un tiers de confiance qui utilise les données personnelles en accord et en transparence avec ceux qui les génèrent, les consommateurs.
Enfin, l’efficacité des modèles qui ne reposent que sur des données comportementales n’est pas non plus toujours au rendez-vous. La formule désormais célèbre « corrélation n’est pas causalité » mérite d’être redite et méditée. Je vous invite à vous rendre sur le site : http://tylervigen.com (un excellent antidépresseur). Vous y verrez des corrélations comme celle-ci : Il existe une corrélation temporelle entre le nombre de personnes qui se sont noyées en tombant dans une piscine et le nombre de films dans lesquels Nicolas Cage est apparu (une conséquence sans doute de son rôle dans le film de Martin Scorsese « A tombeau ouvert » !).
Les logiciels de visualisation, s’ils permettent des représentations attractives, n’offrent pas toujours beaucoup d’éclairage : les données utilisées manquent souvent de représentativité comme le fait justement remarquer Dominique Cardon. Je vous oriente d’ailleurs vers son ouvrage (« A quoi rêvent les algorithmes ?) pour une analyse approfondie de toutes les limites à ces exploitations de données « désincarnées », comme « hors-sol ».
A tous ces freins liés à une confiance aveugle que l’on accorderait aux algorithmes, s’ajoutent encore des freins majeurs non moins redoutables. Au sein même des instituts et dans une certaine mesure également au sein des annonceurs. Ce sont les freins humains au changement, la difficulté que nous avons tous à quitter nos habitudes !
Pendant des décennies, pour de nombreuses problématiques, nous n’avions pas d’autres choix en institut que d’interroger les répondants de la cible visée pour obtenir certaines informations : « Combien de fois par jour ouvrez-vous votre réfrigérateur ? Combien de temps passez-vous devant les écrans ? etc. ». Ces besoins entraînaient de longs questionnaires et des réponses nécessairement imprécises. Nous connaissons les limites et les biais de ce type d’interrogation ; les travaux de l’économie comportementale, consacrés par la remise du prix Nobel d’économie à Daniel Kahneman en 2002, sont passés par là. Le développement de capteurs, d’objets connectés, de collectes de données ouvrent des possibilités de, progressivement, substituer ces données aux données déclaratives. Cela tombe bien : les répondants ont toujours envie de donner leur avis mais moins de remplir de longs questionnaires. A nouveau, à mesure que la menace croît, croît aussi ce qui sauve !
Mais que va-t-on recueillir alors comme données auprès des répondants ? Il s’agit alors de recentrer l’interrogation sur les perceptions, les ressentis, les attitudes, les notoriétés, les intentions, etc. L’objectif du marketing reste d’influencer les opinions, les comportements…encore faut-il les mesurer ! On m’objectera peut-être que, là-aussi, les réponses seront biaisées et qu’il vaut mieux mesurer le ressenti en équipant par exemple avec une sonde électrodermale ou en contrôlant la dilatation de la pupille. Ces méthodes sont clairement utiles, mais présentent elles-aussi des biais (je pense par exemple, à l’effet laboratoire) et des contraintes de faisabilité (difficile d’équiper de larges échantillons avec tout cet appareillage), voire des limites scientifiques ou éthiques. Les nouvelles sources de données non déclaratives vont alors servir de « variables causales », elles viennent expliquer les mesures déclaratives, ce qui peut provoquer telle perception, nourrir telle image, générer tel comportement.
Nous observons également l’existence de logique de silos chez les annonceurs qui peuvent nuire à l’exploitation des différentes sources de données présentes chez eux. C’est dommage de ne pas considérer cet actif comme « un bien commun » pour reprendre une autre formule heureuse de Jean Tirole.
QUELS BENEFICES TIRER DE CETTE HYBRIDATION ?
L’hybridation des données déclaratives avec des données non déclaratives, dans le cadre et l’esprit que nous avons esquissés précédemment, nous parait une voie prometteuse pour de nombreuses situations. En voici deux exemples concrets.
De nombreuses sociétés, en particulier dans le commerce, sont équipées de longue date en CRM. Ces outils sont exploités pour optimiser la relation client…et surtout le ROI de chaque client (encore une question de posture !). Ils permettent de décomposer le CA de l’enseigne auprès des clients qui sont dans la base : le client achète-t-il plus ou moins fréquemment ? Le panier moyen est-il plus ou moins élevé ? La variété des catégories de produits achetées est-elle plus ou moins étendue ? etc.
Il est possible également de mesurer les impacts de telle ou telle action (campagne emailing, campagne de communication, soldes, etc.) et d’identifier les cibles réactives. La construction de segmentations est pratique courante aussi. La recherche de corrélations et la modélisation, en développement. L’idéal d’une fusion CRM/DMP, exprimé.
Que faire de toutes ces données ? Ces informations expliquent le « comment » : Elles permettent de regrouper des individus ayant le même comportement, les mêmes réactions à des stimuli et de trouver des liens, des corrélations entre différentes variables pour en déduire des scénarios d’activation de la base. Par exemple, la mise en place de segmentations RFM (Récence, Fréquence, Montant) pour optimiser la communication et les moyens financiers. Ce n’est pas rien, d’autant que tout cela peut être quantifié, ROIfié. Avantage non négligeable dans des sociétés fortement dirigées par les fonctions financières.
Mais ces informations ne nous disent rien sur le pourquoi ! Pourquoi un client achète-t-il telle et telle catégorie mais pas une autre, pourquoi vient-il à telle fréquence, pourquoi lit-il certains emails et pas d’autres ? Cette approche CRM conduit donc à regrouper, sous prétexte que leurs comportements sont semblables, des individus qui agissent pour des motivations différentes.
Hybrider ces données avec des données déclaratives collectées auprès d’un échantillon représentatif des membres de la base va permettre d’apporter de la compréhension. Par exemple, se rendre compte qu’au sein d’un segment comportemental, on trouve deux types de populations qui ont certes des comportements comparables par construction (achat de même nature et pour des montants proches par exemple) mais avec des situations différentes : dans un groupe, tous les achats ou presque sont effectués chez ce commerçant tandis que pour l’autre groupe, les achats dans cette enseigne ne représentent qu’une partie des achats de ces clients. Ou, plus difficile encore à identifier, que les deux groupes n’ont pas le même engagement vis-à-vis de l’enseigne. On voit bien que les décisions à prendre ne sont pas les mêmes…et que pourtant les actions mises en place seront les mêmes.
Avec l’hybridation, les décisions deviennent plus incarnées, moins mécaniques. Très bien me direz-vous, mais comment mettre en place mes décisions si je ne dispose des données déclaratives que sur un échantillon de ma base CRM ? Plusieurs solutions permettent de résoudre cette problématique. La première consiste à identifier les données déclaratives essentielles à la segmentation et à récolter ces informations à l’occasion de contacts avec les clients (email, venue sur le site/en magasin…). Une seconde solution repose sur l’utilisation de techniques de modélisation pour prédire à partir des données CRM à quel segment déclaratif le client appartient. Ces deux approches sont en fait complémentaires et la modélisation des données CRM peut aider à la définition des données déclaratives à récolter en priorité.
Second exemple pour illustrer les avantages de notre approche : le secteur de la mobilité. Les pratiques de mobilité sont un cas typique des difficultés auxquelles les acteurs des données déclaratives sont confrontés. La mesure des pratiques est délicate : quelle durée de déplacement ? Quels modes utilisés ? A quelle fréquence ? Autant de données qui font appel à la mémoire des répondants.
En revanche, solliciter les répondants sur la notoriété, l’image, l’intention, les attitudes des différents modes de transport ou bien encore leurs perceptions de leur pratique (par exemple, leur façon de conduire) ou enfin des données de cadrage (possession du permis de conduire, type de véhicule possédé, etc.) ne pose pas de problème. C’est souvent même la seule solution pour obtenir ces précieuses informations !
Imaginez maintenant que nous couplions ces informations à une application qui permet d’enregistrer les déplacements de ces répondants qui ont donné leur consentement, et d’identifier, à l’aide d’algorithmes, le type de moyen de transport utilisé par exemple. Imaginez également que nous couplions ces données à des sources de données ouvertes / accessibles comme la météo ou des informations routières. Il est alors possible de dresser précisément un état fiable des pratiques (ne reposant pas sur le souvenir et avec une bonne exhaustivité des pratiques réelles) et de les croiser avec les données d’opinion pour ouvrir de nouvelles pistes de compréhension de la mobilité, de développement de nouvelles offres ou de pistes pour modifier certains comportements à risque. Notre environnement se caractérise pour les décideurs par sa grande imprévisibilité. Pourtant ils ont toujours besoin d’effectuer des arbitrages pour diriger au mieux et faire prospérer leurs activités. Les données, désormais disponibles à profusion, peuvent nourrir, éclairer les décideurs dans leurs choix.
Tout type de données a ses limites. Notre nouvel environnement met en lumière les limites des données déclaratives lorsqu’elles sont utilisées, faute de mieux, pour opérer un certain nombre de mesures (comportements passés très précis par exemple). Recentrées sur les ressentis, les perceptions, les opinons, les attitudes, etc., ces données déclaratives redeviennent particulièrement précieuses, dans notre nouveau contexte marqué par l’importance de la relation et du lien.
Le déluge de données non déclaratives apparaît comme la panacée. Des données parées de toutes les vertus et capables de permettre la meilleure prise de décision. N’attendons pas les déconvenues consubstantielles aux panacées pour prôner, ici comme dans de nombreux domaines, l’hybridation. Les instituts ont à mon sens un rôle majeur à jouer. De l’hybridation de ces deux types de données peut naître une boussole qui donne le sens, qui aide les décideurs dans leurs choix. La quête de sens par-dessus tout.