Chris Anderson, rédacteur en chef de Wired a publié en 2008 un article fondateur sur le concept du Big Data dans lequel il annonçait l’avènement d’une nouvelle manière de penser, avec les termes suivants : « Nous venons d’un monde de marqueteurs où il y a le bon et le mauvais, une seule hypothèse que nous testons ou un bon modèle que nous voulons mesurer. Le Big Data n’a rien à voir avec ça. Nous devons penser comme Google ». Et Anderson d’expliquer que Google n’a jamais cherché à comprendre le contenu des sites à indexer ni à savoir pourquoi une page était meilleure qu’une autre. Ses algorithmes se sont seulement concentrés sur l’analyse statistique des liens entrants et d’autres paramètres purement mathématiques. Anderson en concluait que la taxinomie, l’ontologie et la psychologie ne servaient plus à rien et qu’il ne fallait plus désormais chercher à comprendre pourquoi les gens font ce qu’ils font mais juste constater qu’ils le font en suivant et en mesurant leurs comportements. « Avec suffisamment de données, les chiffres parlent d’eux-mêmes. »
C’est là le champ d’application du Big Data, qui semble
signer en même temps le glas du Market Research tel qu’on le
connaît. En effet, à l’ère de l’information instantanée sur
le comportement du consommateur, que valent encore les études et
recherches qui tentent de détecter et modéliser des vérités dans un
univers où l’objet de nos investigations est de plus en plus
versatile et infidèle ? A quoi sert désormais de poser des questions, de
faire des estimations et des extrapolations si on est capable
d’observer directement les comportements et les réactions qui nous
intéressent ?
Pour savoir comment le Big Data se positionne par rapport aux Etudes
Marketing et voir les menaces ou les opportunités qu’il pourrait
susciter, il convient de définir ce concept, de décrire ses modes de
mise en oeuvre et d’expliquer les apports concrets que l’on
pourrait en attendre.
Qu’est-ce que le Big Data ?
Le Big Data n’est pas une technologie en soi. C’est plutôt un
phénomène récent, résultant des masses de données brutes que génère
notre société à travers ses réseaux, ses inter-connexions et ses
échanges, toujours plus volumineuses, plus rapides et plus
variées.
Chaque jour, on produit dans le monde environ 2,5 milliards de milliards
d’octets d’information numérique. Selon Stephen Gold,
directeur Marketing de IBM Watson solutions (qui dirigeait auparavant le
marketing de SPSS), 90% de l’ensemble des données disponibles
aujourd’hui dans le monde ont été produites au cours des deux
dernières années.
Avant notre ère numérique la production et la conservation de données
nouvelles était généralement intentionnelle, structurée, directement
porteuse de sens et localisée de manière précise. Elle était le fait
d’une minorité d’individus, d’entreprises ou
d’organisations. L’avènement du web, l’interconnexion
des bases de données et le cloud-computing ont tout changé.
Aujourd’hui, chaque individu produit un volume important de
données de manière volontaire ou à son insu. Ainsi, les blogs, forums,
messageries, tweets, réseaux sociaux, sites de partage et autres
plateformes collaboratives permettent à tout un chacun de
s’exprimer facilement et de produire une masse
d’informations hétérogènes sur tout et n’importe quoi. Ces
données sont stockées sur des serveurs éparpillés dans le monde et dont
la localisation importe peu. Parallèlement, nos comportements et actions
sur le web génèrent automatiquement une masse importante de données
personnelles. Nos historiques de recherche ou de navigation, les
produits que nous consultons ou les articles que nous achetons sur le
web laissent des traces. Nous générons également des données à travers
nos appareils de plus en plus connectés (mobiles, tablettes,
téléviseurs, voitures et même électroménager.) et des puces
électroniques que nous utilisons tous les jours (carte bancaire, de
transport, d’accès, d’abonnement, de fidélité.). Tous ces «
capteurs » peuvent renseigner en permanence sur notre position, nos
comportements, nos habitudes…
C’est ce flot de données ou plus exactement son exploitation qui
est à la base du concept de Big Data, considéré aujourd’hui comme
une opportunité unique pour les entreprises mais aussi pour tous types
d’organisations administratives, scientifiques, culturelles…
Certains n’hésitent pas à comparer le Big Data au pétrole ou à une mine d’or. Ils doivent certainement penser à la fois aux richesses qu’il recèle et aux efforts nécessaires pour y accéder. En effet, l’une des problématiques pour une entreprise ou une organisation réside aujourd’hui dans sa capacité à organiser la capture de données nombreuses et non structurées puis leur stockage. Mais l’enjeu majeur est avant tout d’être capable d’analyser ces données et d’en tirer du sens pour améliorer in fine ses performances, son organisation ou ses connaissances.
Les 3 V du Big Data
Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété.
Volume
Lorsqu’on parle de volume pour le Big Data, on évoque souvent les 7
téraoctets (7.000 milliards d’octets) générés quotidiennement par
Twitter ou les 10 téraoctets de contenus échangés tous les jours sur
Facebook. On cite également YouTube qui prend en charge chaque minute
l’équivalent de 48 heures de vidéos. De même Google, Amazon et les
autres grands acteurs de l’économie numérique sont par nature des
gestionnaires de flux de données et manipulent donc des volumes
impressionnants. Ces entreprises stockent ces données sur des milliers
de serveurs alignés dans de nombreux Data-Centers sur des dizaines de
milliers de mètres carrés. Pour avoir une idée de ces infrastructures,
vous pouvez faire une visite virtuelle des sites de Google à
l’adresse suivante :
http://www.google.com/about/datacenters/.
Ce volume de données est en augmentation ultra-rapide depuis les début
du Web. Eric Schmidt, Président exécutif de Google affirmait déjà en
2010 qu’il se créait tous les 2 jours autant de données
qu’entre le début de l’humanité et l’année 2003. Ce
rythme s’est considérablement accéléré depuis.
C’est au début des années 2000 que les grands intervenants du Web
ont ressenti, bien avant les autres secteurs d’activité, la
nécessité de gérer une masse exponentielle d’informations. Voyant
arriver plus de données que ce qu’elles pouvaient prendre en
charge, des sociétés comme Google d’abord puis Yahoo ou Facebook
ont cherché à mettre en place une nouvelle technologie de stockage
réparti sur de multiples serveurs et d’accès rapide à cette
information éparpillée. Cette technologie Open Source a été baptisée
Hadoop et est utilisée aujourd’hui par la plupart des grands
acteurs du web.
Si les sociétés du web ont été les premières à ressentir le besoin de
gérer de grands volumes de données, on peut dire aujourd’hui
qu’elles n’ont plus le monopole dans ce domaine. En effet,
toutes les grandes entreprises disposent à présent de quantités
importantes d’informations qu’elles doivent prendre en
charge et stocker. La grande distribution, les banques, les opérateurs
de téléphonie mobile, les sociétés de vente à distance et les
entreprises de transport notamment reçoivent à chaque instant
d’importants flux de données. Dans tous les secteurs, des
remontées d’information en provenance des points de vente, des
centres de contact, des équipes commerciales ou des sites web peuvent
également affluer. Les volumes dépendent alors de l’activité mais
également des formats de données et du niveau de granularité choisi pour
la prise en charge de l’information : captures vidéo, photos,
emails, pages web, avis de consommateurs, tweets, documents scannés,
puces RFID, comptages électroniques, éléments enregistrés par des
capteurs, détails de consultation du site web, fichiers de logs…
Par ailleurs, toutes les entreprises peuvent, disposer en plus de tous
ces éléments, de contenus non structurés capturés par des outils de
veille sur le web, mis en place pour suivre ce qui se dit sur elles,
leurs concurrents ou leurs segments de marché.
Avec la baisse du coût de stockage, la tendance aujourd’hui est de
stocker tout ce qu’on peut stocker, souvent sans savoir comment
l’information ainsi conservée pourra être exploitée.
Variété
Le corollaire du volume croissant est une diversification importante des
formats et des sources de données. On estime aujourd’hui que plus
de 80% des données disponibles dans le monde sont de type non structuré
contre moins de 20% de données structurées. Le volume de données non
structurées augmente 15 fois plus vite que celui des données
structurées, en provenance de sources de plus en plus nombreuses et
variées.
Alors que les entreprises traditionnelles étaient habituées dans le
passé à prendre en charge des données structurées, à les stocker dans
leurs bases de données relationnelles et à les interroger en SQL, la
masse de données générées arrive donc aujourd’hui dans des formats
très variés. Les données en provenance des médias sociaux, les éléments
capturés automatiquement et les périphériques mobiles notamment font
affluer des éléments qui n’entrent pas naturellement dans les
architectures informatiques existantes. Cela exige une modification du
mode d’approche et des changements d’infrastructures souvent
difficiles à appréhender. Parallèlement la mise en place de ces
nouvelles architectures nécessite des compétences nouvelles,
actuellement peu courantes.
Les décideurs et les DSI français commencent à en prendre conscience, même si leur vision du Big Data semble encore assez parcellaire. En effet, lorsqu’on les interroge sur le phénomène, ils lui associent spontanément le critère de Variété, plus automatiquement que les 2 autres caractéristiques (Volume et Vitesse). C’est ce qu’indique une étude menée récemment par l’institut « Markess International » sur les nouvelles perspectives d’exploitation des données clients avec le Big Data, réalisée auprès de 110 décideurs d’entreprises et d’administrations de plus de 250 employés en France. Cette étude montre que les décideurs voient surtout dans le Big Data les apports liés à l’analyse de nouvelles sources de données, dont les données sociales. Toutefois, le fait que les deux autres V (Volume et Vitesse) soient moins directement associés au Big Data révèle probablement un manque de compréhension du concept et de ses exigences en matière d’infrastructures nouvelles de gestion et de stockage des données d’une part (Volume), et de gestion en temps réel ou en mode flux d’autre part (Vitesse). L’étude montre d’ailleurs qu’une faible proportion des personnes interrogées, y compris parmi les décideurs informatiques, connaît bien par exemple l’écosystème Hadoop (voir encadré), plateforme Open Source qui est aujourd’hui à la base des infrastructures Big Data de la plupart des entreprises avancées dans ce domaine (Facebook, Adobe, Amazon, Google, IBM, LinkedIn, Microsoft, etc.).
Vitesse
La vitesse correspond à la fréquence de remontée des informations. Les
données non structurées et massives, affluent de plus en plus rapidement
dans les systèmes d’information des entreprises. La vitesse de
prise en compte des flux, de traitement des données multiples et
d’exploitation instantanée des inputs correspond de ce fait à une
exigence essentielle du Big Data. Le mode de traitement par lots qui est
au coeur de nombreux systèmes CRM, ERP ou Décisionnels et qui produit
des données « rafraîchies » à fréquence régulière, semble donc désormais
inadapté à la prise en compte et à l’exploitation rapide du flot
constant d’informations. La collecte et le partage des données en
temps réel devient donc un prérequis absolu dans une approche Big
Data.
Il n’y a d’ailleurs qu’à voir comment Google Analytics
est en mesure de vous indiquer en temps réel le nombre de personnes qui
consultent votre site, leur provenance géographique, les pages en cours
de consultation et bien d’autres paramètres instantanés pour se
rendre compte de l’ère de l’immédiateté dans laquelle nous
sommes entrés, en imaginant toutes les exigences techniques et
organisationnelles sous-jacentes. Quand on pense que ces informations
sont gérées en temps réel pour des millions de sites à travers le monde,
on ne peut qu’être impressionnés par la performance. Bien entendu,
on a affaire ici à l’entreprise phare du web, dont le coeur de
métier consiste justement à gérer des volumes gigantesques de données.
Peu d’organisations dans le monde pourront prétendre approcher ses
performances en matière de Big Data. Il n’en reste pas moins que
les initiatives et innovations de Google peuvent souvent être des
sources d’inspiration pour nous autres.
La philosophie du Big Data
La définition basée sur les 3V situe bien le concept de big data mais ne l’explicite pas entièrement. En effet, elle peut laisser penser que le Big Data est la même chose que ce qu’on fait habituellement avec nos données mais en plus grand, plus varié et plus rapide. Il n’en est rien et le concept a sa logique propre qui est vraiment très différente de ce qu’on connaît déjà.
Chris Anderson que nous avons déjà évoqué dans l’introduction de notre article nous l’explique en rappelant d’abord que la science traditionnelle dans son ensemble s’est toujours basée sur des modèles, des théories, des hypothèses ou des mécanismes qu’il s’agissait de comprendre et de généraliser pour nous permettre d’appréhender la complexité. Les statistiques à la base des études marketing en sont un exemple. Anderson rappelle d’ailleurs la phrase du célèbre statisticien Georges Box « Tous les modèles sont erronés, mais certains sont commodes », en expliquant que dans toutes les sciences, les modèles et les théories s’appliquent dans un cadre et peuvent ne pas fonctionner dans un autre. Il en est ainsi, par exemple, de la théorie de la mécanique newtonienne qui s’applique parfaitement aux mouvements des planètes mais est totalement inopérante dans l’infiniment petit (qui relève de la mécanique quantique).
L’approche Big Data, contrairement aux approches scientifiques habituelles, adopte une démarche empirique, qui ne repose plus du tout sur la compréhension des mécanismes sousjacents mais uniquement sur la constatation de faits. Anderson prend l’exemple du système de traduction de Google qui traduit n’importe quelle langue en n’importe quelle autre (65 langues supportées !) sans avoir la moindre idée des structures grammaticales de chacune de ces langues. La traduction fonctionne sur la base d’un système baptisé « statistical machine translation » qui analyse des millions de documents déjà traduits par des humains (livres, documents de l’ONU, sites web…) et en extrait des corrélations qui permettent de produire une traduction généralement correcte même si elle n’est pas toujours parfaite. Pour en savoir plus sur ce mécanisme vous pouvez visionner une vidéo à l’adresse suivante : http://translate.google.com/about
Pour poursuivre le raisonnement, Anderson considère que ce dispositif illustre parfaitement la pensée « Big Data » qui se passe de modèles et de théories pour utiliser uniquement des éléments existants, dont le volume permet d’extraire, par le seul calcul statistique, des résultats satisfaisants. Et même si on trouve des corrélations entre des éléments qui semblent ne rien avoir à faire ensemble, le volume important de données utilisées pour arriver à ces corrélations laisse penser qu’on est en présence de phénomènes réels bien que non expliqués (Anderson cite la corrélation entre Pampers et le Super Bowl !). L’idée du Big Data est de renoncer à chercher une explication mais de permettre simplement de prendre en compte cette réalité pour l’exploiter concrètement.
Les apports du Big Data
D’après une étude de McKinsey, un distributeur qui utilise le Big Data de manière optimale peut augmenter sa marge opérationnelle de plus de 60% ! Le même rapport indique par exemple que 30% des ventes d’Amazon sont dûs aux recommandations données aux internautes. D’autres peuvent faire de même dans la mesure où chaque entreprise ou organisation a une forte probabilité de disposer aujourd’hui d’un gisement d’informations et d’indicateurs qui pourraient améliorer considérablement ses performances. Certaines de ces données n’existaient tout simplement pas dans le passé ou ne pouvaient pas concrètement être prises en compte et analysées. Les apports marketing, commerciaux et opérationnels d’une analyse des flux de données de type big data peuvent être précieux et divers. Une bonne capture, gestion, modélisation, analyse et exploitation des données issues de ces gisements de Big Data permettent de révéler des relations cachées, détecter des opportunités nouvelles, redéfinir certaines offres, induire des changements organisationnels, infléchir la communication.
Bref, la bonne utilisation du Big Data renforce les performances et la compétitivité de l’entreprise en lui permettant de répondre plus vite et mieux aux besoins de ses clients.
Elle permet notamment :
- de remplacer ou d’assister les décisions humaines par des
algorithmes automatisés seuls capables de gérer le volume et la vitesse
des données,
- d’assurer plus de clarté et de transparence dans les
mécanismes de décisions,
- d’expérimenter et d’évaluer plus vite voire
instantanément des alternatives marketing,
- d’apporter des capacités prédictives nouvelles,
- d’anticiper plus facilement les mouvements et les tendances,
- de réduire de manière substantielle des coûts d’acquisition
et d’exploitation de l’information par rapport aux procédés
classiques (dont la recherche marketing).
Comment mettre en place un projet big data ?
Une démarche aussi prometteuse mérite qu’on s’y attelle rapidement. Mais comment s’y prendre concrètement ? Lorsqu’une entreprise aborde pour la première fois ce domaine et cherche à exploiter des types de données qu’elle n’a pas l’habitude de prendre en charge et de traiter, de nombreuses questions se posent :
- Quelles sont les données pertinentes et signifiantes auxquelles on doit
s’intéresser ?
- Quels indicateurs peut-on mettre en place ?
- Quels problèmes de qualité de données aurons-nous à régler ?
- Combien cela va nous coûter ?
- Combien de temps cela va nous prendre ?
Avec l’expérience, la réponse à ces questions devient bien sûr plus facile. Mais comme le big data, par définition, nous soumet sans cesse de nouvelles variétés de données, toujours plus vite et avec des volumes croissants, on peut être confrontés en permanence à des inconnues dans notre équation et avoir sans cesse à résoudre des problèmes nouveaux.
Le premier projet big data est généralement initié lorsque le management se rend compte que l’entreprise est en train de perdre des opportunités en négligeant les données à sa disposition. La démarche consiste naturellement à solliciter la DSI pour étudier le projet. Les équipes marketing et informatiques se lancent alors dans un examen exhaustif des données qu’il serait possible de récupérer et d’exploiter, en se basant parfois sur des objectifs précis. Mais le plus souvent, les velléités d’exploitation des données et les immenses promesses du big data incitent à regarder dans tous les sens de peur de se fermer des portes ou de manquer des aubaines dans ce domaine encore nouveau pour l’entreprise. A l’issue de cette phase d’étude préalable qui peut se révéler longue et complexe, l’informatique se lance généralement dans des développements pour répondre au cahier des charges établi, en capturant les données identifiées et en les organisant en vue de leur traitement. Fidèles à leurs approches et méthodes habituelles auxquelles ils ont été formés et qui constituent pour eux le standard à respecter, les informaticiens cherchent à intégrer ces données capturées dans des structures rigoureuses, qui permettront leur exploitation avec les outils de gestion de base de données usuels.
Les indicateurs ainsi développés sont ensuite déployés en test puis en production et mis à la disposition des équipes marketing. Immanquablement, et après quelques semaines seulement, les utilisateurs confrontés à la difficulté de transformer le process en bénéfices réels, reviennent demander des adaptations ou parfois même des changements complets d’approche. Les itérations qui s’ensuivent peuvent durer longtemps et épuiser tous les intervenants sans forcément aboutir à un résultat concluant. C’est Bill Franks, spécialiste du Big Data et auteur de l’ouvrage de référence « Taming the Big Data Tidal Wave » (qui a déjà été traduit en Chinois, en Japonais et en Coréen mais pas en Français !) qui décortique ce schéma classique en précisant qu’il ne fonctionne pas dans l’univers du Big Data parce qu’il correspond davantage à des cas où tous les éléments sont connus, les risques identifiés et les étapes claires et établies. Dans l’univers du Big Data, la difficulté consiste à utiliser de nouvelles sources de données pour répondre à de nouvelles problématiques, et le tout d’une nouvelle façon. La bonne solution pour Bill Franks est de « démarrer petit » (start small). Il conseille notamment de définir, pour démarrer, des indicateurs relativement simples qui ne nécessiteraient ni beaucoup de données à collecter ni beaucoup de temps pour les obtenir. Ainsi, un site de vente en ligne peut commencer par identifier les produits consultés par chaque visiteur dans le but d’envoyer à ceux qui n’ont pas acheté des offres promotionnelles qui pourraient les motiver à passer à l’acte. Pour limiter le process et faciliter l’expérimentation, il est conseillé de ne pas s’intéresser à l’ensemble des données mais de limiter l’expérience à une partie bien délimitée. On peut par exemple prendre les connexions d’un mois donné et pour quelques produits seulement. Ce focus permet de ne pas s’encombrer avec des volumes de données importants et des informations inutiles. Il facilite la manipulation des fichiers de données par les opérationnels du marketing qui peuvent définir plus facilement des sous-ensembles et effectuer des actions de tests en mesurant les retours obtenus. Des petits projets intuitifs comme celui-ci permettent à l’entreprise de se familiariser avec les possibilités qui s’offrent à elles et de cerner les problèmes éventuels, les efforts financiers et techniques à faire et les retours possibles. On ne démarre donc pas en listant en amont tout le champ des possibles mais plutôt en entrant dans le Big Data pas à pas, à travers de petites initiatives que l’on pourra ensuite développer et étendre en connaissance de cause.
Et les études marketing dans tout ça ?
D’après le rapport d’ESOMAR sur le marché des études, les
activités de recherche marketing qui ne sont pas liées au fait de poser
des questions à des personnes (i.e. qui ne relèvent pas de
l’enquête par questionnaire, des focus groups ou
assimilés…), représentaient déjà en 2010 plus de la moitié du
chiffre d’affaires du secteur. Ces activités correspondent aux
audits de points de vente, aux mesures d’audience, à
l’analyse de tickets de caisse, au web analytics… Il
s’agit déjà là d’activités qui s’apparentent au Big
Data et qui en constituent peut-être un prélude dans l’activité
des instituts d’études.
Comme l’indique Ray Pointer, Directeur de « Vision Critical
University » et conférencier régulier à l’Esomar, « Deux visions
du big data sont en train d’émerger du point de vue de la
recherche marketing, même s’il y a un recouvrement important entre
ces deux visions. » Pour Pointer, on peut distinguer un premier modèle
orienté sur la marque (brandcentric view) et où l’on
s’intéresse principalement à toutes les données détenues par la
marque en interne : données issues du CRM, des cartes de fidélité, des
études de marché, des remontées en provenance des réseaux sociaux…
Dans le second modèle, des entreprises comme celles qui gèrent des
panels peuvent accéder à des données multiples sur les personnes et les
utiliser pour plusieurs marques et clients.
Les deux visions laissent peu de place aux études basées sur un questionnement de répondants, qu’il s’agisse de démarches quantitatives ou qualitatives. On peut donc s’attendre à ce que ces techniques reculent dans les prochaines années. Le risque est même que les entreprises considèrent à terme, à partir d’un certain volume de données, que l’interrogation des clients ne sert plus à rien. En effet, qui payerait des milliers d’euros pour poser quelques questions à un échantillon de 500 ou 1000 personnes alors qu’il dispose de données instantanées sur des centaines de milliers de clients ?
Ce faisant, les entreprises adhéreraient rapidement au concept de Google
sur l’inanité du sens des choses (le pourquoi obtenu par le
questionnement) au profit d’un suivi instantané de leur
déroulement (le quoi issu de l’observation des événements). Ici,
l’enjeu pour les instituts d’études serait de prouver que
l’un peut éclairer l’autre et que l’analyse des
objectifs et des motivations des consommateurs peut apporter une vraie
valeur ajoutée à la compréhension des évolutions de leurs comportements
d’achat.
En tout cas, la formule « Big Data : Too Big to ignore » qui a servi de
titre à un ouvrage sur le Big Data et qui est souvent utilisée dans la
presse américaine, devrait inspirer les instituts et les pousser à
s’intéresser rapidement au phénomène. La connaissance des
méthodes, technologies et apports peuvent leur donner des idées pour
mettre en place de nouveaux produits et de nouvelles plates-formes qui
restent à inventer. Les entreprises manquent aujourd’hui de
spécialistes dans l’exploitation des données du Big Data. Dans les
pays les plus avancés sur le traitement des données (Etats-Unis
notamment), on recherche de toutes parts des Data-Analysts et
Data-Scientists. Certains suggèrent de confier le Big Data en interne à
un CAO (Chief Analytics Officer) rattaché directement à la Direction
Générale et capable d’appréhender la collecte et l’analyse
de données à la fois du point de vue technique (en collaboration avec la
direction informatique) et du point de vue marketing (en collaboration
avec la direction marketing). Dans les organisations de ce type, cet
interlocuteur aura besoin de ressources externes et pourra faire appel à
des instituts qui lui offriraient une expertise dans la collecte et
l’analyse de données. Si l’organisation au contraire
n’intègre pas directement des spécialistes du Big Data, les
instituts compétents peuvent se positionner comme des spécialistes
privilégiés du domaine et offrir leur expertise à la fois aux directions
informatiques et aux directions marketing.
Les instituts d’études sont bien placés pour remplir ce rôle. En
effet, on retrouve au coeur du Big Data les problématiques de
l’optimisation du recueil de données, du traitement des
informations non structurées (comme dans le qualitatif), d’analyse
statistique de données et de mise en place de tableaux de bords et de
reportings. Tout cela fait déjà partie des domaines d’expertise
des instituts même si le domaine du Big Data nécessite en plus une
expertise technique et informatique à acquérir en supplément. Par
ailleurs, les entreprises qui souhaitent exploiter le Big Data vont
avoir besoin d’interlocuteurs capables de les conseiller sur le
plan technique mais qui comprennent également les enjeux marketing
sous-jacents. Les SSII sont moins aptes à offrir un cadre à des profils
de ce type alors que les instituts peuvent intégrer des équipes mixtes
de spécialistes du Big Data au niveau technique et de directeurs
d’études experts sur le plan de la compréhension du business du
client.
On voit donc que l’enjeu pour les instituts consiste tout
d’abord à s’intéresser au phénomène Big Data et, très
rapidement, à acquérir de l’expertise dans ce domaine pour évoluer
avec les besoins du marché (et ne pas être les futurs Kodaks de
l’ère numérique). L’un des points clés sera certainement de
rechercher d’ores et déjà à intégrer des profils plus techniques
capables d’appréhender les enjeux technologiques mieux que ne le
ferait le chargé d’études moyen. Un autre point clé consiste à
s’entourer de partenaires technologiques capables de les assister
dans les projets de type Big Data en fournissant les conseils et/ou les
outils adaptés.
On peut d’ailleurs se réjouir de l’annonce récente de Fleur
Pellerin, ministre déléguée en charge de l’Economie numérique de
favoriser le développement d’une véritable filière Big Data en
France afin que le pays « joue un rôle moteur sur ce nouveau marché ».
Cela devrait déboucher obligatoirement sur la mise en place de filières
d’enseignement adaptées capables de fournir au marché des profils
adhoc.
Le Big Data peut donc être vu par les instituts d’études comme une opportunité plutôt que comme une menace. C’est le moment de se positionner, surtout sur le marché français où les dernières études montrent que le phénomène est encore considéré avec une certaine distance par les décideurs (une étude IDC récente indique que 70% des 160 entreprises interrogées n’ont ni initiatives ni réflexion sur le sujet). Alors vite, fonçons avec une démarche proactive pour profiter du changement de paradigme plutôt que de le subir.