L’institut d’études « augmenté »
Stéphane Truchi, Président du directoire du groupe Ifop
Avec la révolution du Big Data, le secteur des Etudes est amené à
intégrer de nouvelles données, multiformes, passives, massives,
rapides, non structurées, contrairement aux données habituellement
recueillies. Ces datas enrichissent les études et ne vont pas les
remplacer. Elles vont les compléter en révélant la partie immergée
de l’iceberg, celle que le consommateur émet dans
d’autres contextes et vont nous permettre d’approfondir
sa connaissance. Réside alors un enjeu : faire cohabiter des métiers
dont les logiques sont différentes et qui sont encore en phase
d’expérimentation pour certains. Pour y répondre, nous avons
fait évoluer au sein de l’IFOP notre organisation, nos
ressources humaines, nos méthodes de travail et nos outils. Nous
avons été amenés à intégrer des nouveaux profils (data scientist,
web designer…) ainsi qu’à développer des partenariats avec des
start-up. Les témoignages suivants sont des exemples concrets de ce
que nous mettons en place quotidiennement afin que cette révolution
soit porteuse de sens, de valeur ajoutée, de business pour toutes
les parties prenantes.
Rendre le Big Data actionnable par la Data Science
Les sources de données disponibles n’ont jamais été aussi
nombreuses.
Je suis en charge de rendre ces données hybrides et massives facilement
et rapidement accessibles aux parties prenantes de l’entreprise.
Je travaille de manière transversale sur toute la chaîne de valeur de la
donnée en interaction avec les équipes étude. Mes missions couvrent 4
étapes clefs. La 1ère consiste à identifier les sources pertinentes pour
répondre à la problématique client. C’est une sorte de mise à plat
des données, qu’elles soient internes à l’entreprise,
produites par l’Ifop ou issues de l’Open Data. Il est
essentiel de travailler conjointement avec les experts étude et le
client car de la nature et la richesse des données à disposition dépend
tout ce qui suit. La 2ème étape correspond à une phase de préparation de
données avec l’harmonisation des sources pour rendre les fichiers
exploitables. J’ai par exemple récemment dû pour une étude,
uniformiser des fichiers issus d’un réseau de magasins qui
n’étaient pas identiques selon les zones puis retravailler une
partie de la base client qui comportait des doublons, des valeurs
manquantes et des données obsolètes. J’utilise principalement le
logiciel R. La 3ème étape correspond à la modélisation et
l’analyse de données, où je cherche à articuler toutes les sources
ensemble (enquête de satisfaction, données magasins, plan média…) afin
de détecter des leviers opérationnels d’amélioration de la
performance. Un expert métier est nécessaire pour interpréter les
signaux détectés. Enfin, la 4ème étape est la visualisation des
résultats dans une phase de restitution. Il arrive souvent qu’il y
ait plusieurs parties prenantes qui n’ont pas les mêmes besoins,
ou que le client souhaite explorer lui-même ses données. Dans ce cas je
développe des visualisations interactives ad-hoc. C’est la
maîtrise de ces 4 étapes qui permet de transformer des données
multiformes en connaissance client actionnable.
Par Lucas Gutierrez, data scientist de l’Ifop
Se reconnecter à la vraie vie des consommateurs par la photo
La photo et la vidéo sont devenues un mode de langage universel et transgénérationnel. Elles contiennent une multitude de signes que les mots ne permettent pas de révéler, à tel point que cette donnée devient une information sociologique et prospective. Dès lors qu’elle est recueillie massivement, elle bouleverse la connaissance du consommateur dans son interaction avec sa consommation et ses modes de vie. InCapsule by Ifop a conçu une démarche exploratoire « Picture Prospective » primée en 2016 aux Trophées Etudes et Innovation et détournant à des fins prospectives la démarche développée par la Start Up Clic and Walk. Picture Prospective s’appuie sur la captation de données visuelles (photos ou vidéo) et de data personnelles, recueillies en masse auprès de la communauté des « ClicWalkers ». Ces données sont classées et analysées sémiologiquement et les conclusions challengées auprès d’une communauté d’experts. L’intérêt est multiple : tirer parti de la force de mobilisation d’une communauté d’individus (ces « Clics Walkers » habitués aux missions de collecte de photos), reconnecter les entreprises à la réalité des consommateurs et de leurs usages « sans fard », rétablir la réalité qui se cache derrière les représentations et les images que nous renvoient les médias ou même le déclaratif (les photos personnelles sont captées dans l’instant, sans filtre, par les personnes qui n’ont aucun enjeu de valorisation de soi contrairement à Instagram…), et d’identifier des modes de vie émergents pour « donner corps » aux signaux faibles qui sont des sources d’inspiration pour l’innovation.
Par Martine Ghnassia, co-fondatrice InCapsule by Ifop
Donner une nouvelle vie à vos bases de données
Lors d’une expérience d’utilisation de datas propriétaires, nous avons cherché à comprendre et analyser l’érosion importante du taux d’occupation des centres de vacances du comité d’entreprise pour une grande société. Le projet a nécessité un état des lieux sur les comportements de 2 cibles-clés : les familles adhérentes (leurs comportements d’inscription, d’anticipation, d’annulation, les centres de vacances fréquentés, les activités préférées) et les abandonnistes. Nous avons décidé d’utiliser la seule base de données opérationnelle disponible : à savoir, celle des inscriptions d’enfants qui comptabilisait plus de 100 000 inscriptions sur 6 ans. Nous avons tiré de nombreux enseignements comme le constat que la date de 1ère inscription de l’enfant était bien plus tardive que celle observée à la concurrence, illustrant ainsi une faiblesse de la stratégie de recrutement. Notre équipe a élaboré une typologie des comportements réels à partir de ces informations collectées sur 20 000 familles. Au-delà de la richesse de l’information obtenue – pour peu qu’on sache en tirer parti -, la fiabilité est assurée. Le délai d’anticipation (nombre de jours compris entre la date d’inscription effective et la date prévisionnelle du séjour) et le taux de ré-achat par famille par exemple s’avèrent plus exacts que si nous avions posé directement la question aux familles. Des constats très précis mis en regard avec un état de situation sectorielle et un benchmark concurrentiel ont permis de mettre en lumière les forces et faiblesses de l’association pour élaborer un plan stratégique(en plus des habituels états de situation sectorielle et benchmark concurrentiel). En complément, la qualification de l’ensemble des familles selon la typologie retenue a permis de suspendre l’adressage du catalogue aux familles abandonnistes soit une économie substantielle/ ou une économie importante.
Par Véronique Gabriel des Bordes, directrice du pôle « Expérience client & Grandes Enquêtes » de l’Ifop
Intégrer les données dans un cadre légal
L’enjeu pour un institut d’études est d’intégrer l’ensemble et la variété de ces données dans un cadre juridique qui soit conforme aux législations actuelles et à venir [GDPR- General Data Protection Regulation], sans être trop contraignant afin que cela ne représente pas un frein à l’innovation. Rappelons que les données collectées et traitées par le Big data peuvent être classées en 2 catégories : des données privées (données à caractère personnel récoltées ou non en ligne ou des données relevant du patrimoine informationnel de l’entreprise) et des données publiques (Open data). Il n’en reste pas moins qu’il est souvent difficile avec le Big Data de définir ce qu’est une donnée personnelle : il advient de se tourner vers la notion d’usage de la donnée (l’usage porte-t-il sur des données personnelles ou pas ?). Lorsque c’est le cas, la pleine application des principes fondamentaux de la protection des données est requise. L’Ifop privilégie de plus en plus le principe du « Privacy by design » pour les études utilisant le Big Data. C’est-à-dire, intégrer en amont du projet les outils de protection des données, au lieu de les ajouter ultérieurement sous forme de compléments : prise de mesures proactives et non réactives, intégration de la protection de la vie privée dans la conception des systèmes et des pratiques (systèmes d’anonymisation des données transmises), sécurité de mise pendant toute la période de conservation des renseignements (outils de gestion internes des données permettant leur destruction « programmée ») et assurance d’une visibilité et transparence (prévention sur l’objet et l’utilisation des données). Ce concept doit surtout s’inscrire dans une démarche collective, concevoir le projet avec l’ensemble des parties prenantes : la direction de l’entreprise, l’informatique, le juridique, le data scientist et tous les opérationnels impactés. L’analyse des risques de l’utilisation de données personnelles se fait au cas par cas et ce, de façon conjointe. Cela nous amène parfois à devoir infléchir le design de l’étude. Le Big Data oblige à réfléchir à la transformation de l’organisation des entreprises avec un enjeu juridique capital.
Par Sandrine François, legal manager de l’Ifop
Apporter l’expertise études au Web Listening
L’écoute du web délivre en temps réel une matière riche et
facilement accessible essentiellement utilisée par les marques pour
monitorer le buzz ou la e-réputation. Au-delà, lorsqu’il
s’agit de rechercher des insights, de nourrir l’innovation,
d’orienter des initiatives, le web listening fait face à un enjeu
de transformation des données collectées en matière actionnable. Le
challenge est de passer du « nice to know » au « so what ?», de
l’observation à l’action. A l’IFOP, notre approche
s’articule autour de 5 partis pris :
le web listening ne peut pas être laissé dans les mains de techniciens
du web. La prise en charge par des experts sectoriels apportant leur
connaissance du marché, des enjeux et dynamiques, permet de dégager des
insights actionnables.
le web listening perd de sa pertinence quand il cherche à représenter le
point de vue d’ensembles de populations très larges comme « les
Français » ou « les jeunes ». Il peine à être représentatif et sa force
réside au contraire dans la capacité à explorer des populations plus
typées, à restituer ce qui se dit au sein de communautés rassemblées
autour de situations ou d’affinités communes (les acheteuses de
produits de luxe, par exemple). Ecouter le web, c’est explorer les
communautés.
le web listening ne doit pas se contenter d’explorer les contenus
textuels. La photographie et la vidéo sont devenues des langages du
quotidien – expressifs, immersifs, concrets – qu’il
est fondamental d’intégrer pour comprendre ce qu’expriment
les gens. Nous avons été précurseurs de l’analyse de contenus
photo et vidéo massifs avec l’approche Picture Prospective.
le web listening ne sert pas qu’à capter l’instant. Il doit
au contraire être exploité dans sa capacité à révéler des évolutions
dans le temps, à injecter une dimension dynamique et prospective aux
recherches qualitatives « traditionnelles ».
le web listening prend sa valeur dans la confrontation à d’autres
données qu’il vient compléter, illustrer, éclairer. Il se réalise
dans l’hybridation, dans le métissage, dans le croisement avec les
études quantitatives et qualitatives, la mesure passive, les démarches
prospectives. C’est tout sauf un « truc de geeks ». Ce n’est
que marginalement un enjeu de plateforme de crawling, de capacités
techniques. C’est avant tout une question de regard,
d’ambition, de capacité à mettre en relation (des méthodologies,
des sources, des contenus, des formats complémentaires) et
d’expertise marketing.
Par Christophe Jourdain, directeur général de l’Ifop