Survey-Magazine : Comment définissez-vous le Big Data ?
Philippe Jourdan : Le terme évoque des données massives qui
deviennent tellement volumineuses que les méthodes de stockage dans des bases de
données, les processus de codage et les algorithmes de traitement des données
habituellement utilisés deviennent inopérants pour en extraire le sens.
Le Big Data forme une croissance exponentielle des données stockées qui suivent
la loi dite des 3V (volumes, vélocité et variété). Mais les coûts
d’analyse augmentent considérablement, et les analystes sont confrontés à
plusieurs difficultés techniques et méthodologiques.
Pensez-vous que le Big Data va faire disparaître les études marketing ?
Je ne crois pas que le Big Data signifie la fin des études marketing telles que
nous les connaissons aujourd’hui. Le métier sera certainement voué à être
modifié, mais à disparaître, non je ne le pense pas.
Il faut rappeler que les études marketing ont déjà connu des (r)évolutions dont
elles sont sorties plus fortes par la généralisation des données de panels, la
croissance des études longitudinales, la modélisation prédictive, ou encore
l’intégration des données d’achats aux données d’usage. La
révolution des PC des années 1990 et le remplacement des progiciels
d’analyses de données par des logiciels de statistiques ont débouché sur
une première révolution dans le traitement de masse des données. Les acteurs
majeurs de la profession ont à chaque fois réussi à s’adapter et donc à
s’imposer face à ces (r)évolutions.
Ces acteurs vont-ils être capables à nouveau de gérer ce changement qui s’installe ?
En réalité, l’expertise des instituts d’études va devoir être modifiée mais elle est loin d’être obsolète dans le nouveau contexte dominé par l’explosion des données. Même si pour le moment, il reste encore des solutions technologiques à inventer, nous faisons appel quotidiennement à un savoir-faire et à des qualités pour donner du sens aux données consommateurs pour le compte de nos clients.
Quelles sont justement les qualités nécessaires ?
Notre savoir-faire répond d’abord à une capacité à cerner les enjeux de la
représentativité qui permet de généraliser les résultats observés à
l’ensemble d’une population. Les échantillons analysés seront bien
sûr différents en termes de tailles en comparaison de ceux aujourd’hui
manipulés. En revanche, nous aurons toujours les mêmes interrogations sur la
représentativité, la qualité, la provenance…
Pour le traitement des données, nous serons toujours face aux problèmes de la
généralisation des enseignements retirés à l’ensemble de nos clients pour
comprendre les logiques de marché dans leur ensemble.
Il faut aussi pouvoir relever les signaux faibles mais porteurs de sens au
milieu d’une multitude de données. Les comportements et opinions sont
ambigus, et même parfois déroutants. La recherche des facteurs explicatifs ou
prédictifs n’en est que plus complexe. L’enjeu est de mobiliser la
ou les théories pertinentes et de les confronter sans cesse à la réalité. Nos
clients nous sollicitent au quotidien justement pour mettre en œuvre cette
démarche scientifique d’analyse.
Enfin, il faut savoir anticiper les constants changements de contexte,
d’environnement et passer outre les enseignements tirés des données du
passé.
La principale faiblesse de la donnée cumulée, c’est qu’elle est
tournée vers le passé. Je vois beaucoup de clients qui pensent que leurs données
historiques vont leur permettre de comprendre leur environnement futur. Il
suffit de voir les écarts d’opinions, de valeurs et de comportements qui
opposent les préadolescents, adolescents et jeunes adultes pour comprendre que
c’est loin d’être le cas.
La démarche à adopter est en réalité la mobilisation de compétences
pluridisciplinaires et le plus souvent qualitatives afin de former la meilleure
réponse au défi ainsi posé.