A l’ère numérique, la quantité d’informations collectées, diffusées et stockées équivaut en un jour à ce que l’humanité toute entière avait produit jusqu’au XXème siècle. Ce phénomène porte un nom : le Big Data !
Son volume ahurissant n’est pas sa seule caractéristique, le Big Data se délimite par ce que les experts du domaine appellent les 3V : Volume, Variété et Vitesse.
On parle de Volume pour évoquer ces quantités de flux de données qui dépassent les imaginaires les plus fous. Les géants du web comme Google, Twitter ou encore Facebook évoquent des chiffres de plusieurs milliards d’octets échangés sur leurs plateformes chaque jour. Le phénomène prend une toute autre tournure lorsqu’on parle de gestion de ces données. Aujourd’hui, des solutions voient le jour pour permettre aux sociétés de les stocker : mission réussie pour l’instant puisque grâce à de nouvelles technologies, on y arrive. Mais que va-t-on en faire ? Voici une des problématiques majeures du phénomène Big Data.
La Variété des données ne permet pas aux systèmes informatiques actuels de les ranger naturellement dans leurs bases. En effet, ces flux d’informations arrivent de tous supports : réseaux sociaux, mobiles, site web ou encore forums et leurs formats sont beaucoup trop multiples pour avoir été prévus en amont dans les architectures informatiques. Mais quelles solutions adopter pour structurer l’ensemble de ces données ?
Et enfin la Vitesse qualifie l’importante fréquence à laquelle les données sont remontées au sein des systèmes d’informations. Cette rapidité de plus en plus grande insinue la nécessité d’une réaction ultra rapide pour traiter les données dès leur arrivée. Récemment, le mobile est devenu lui aussi une source sérieuse d’informations qui demande une réactivité de plus en plus précise. Mais comment collecter, traiter, et régir en temps réel ?
Les 3V ne suffisent pas à définir le phénomène Big Data puisqu’ils laissent à croire qu’il faut simplement augmenter la capacité des systèmes informatiques actuels pour s’adapter. C’est en fait le modèle tout entier qui doit être revu. Lors de notre dernier numéro, nous évoquions déjà la pensée de Chris Anderson, rédacteur en chef de Wired, qui résume parfaitement la philosophie du concept en prenant l’exemple de Google. Ce dernier, qui traite des flux de données inouïs chaque jour, ne cherche pas à comprendre leur contenu pour les classer, mais effectue uniquement des formules purement mathématiques. Cette démarche est évidemment bien loin de la gestion par la pertinence du contenu à laquelle nous sommes depuis longtemps habitués, c’est pourquoi nos systèmes informatiques sont aujourd’hui à revoir dès leur source.
Nous assistons à une profonde modification de la recherche marketing. Cette dernière ne se limite plus à poser des questions, elle récolte maintenant des informations via d’autres moyens : web analytiques, données géolocalisées, communautés en ligne, etc. Elle profite donc, elle aussi, de cet afflux de données à double tranchant : d’un côté, la connaissance client accède à des données qu’elle n’aurait jamais pu récupérer autrement mais d’un autre côté, la gestion de ces flux exponentiels apparait des plus complexes. Notons tout de même que les instituts d’études n’auront bientôt plus besoin d’interroger les consommateurs pour disposer des informations voulues. Serait-ce la fin des études marketing telles que nous les connaissons ? Nous pouvons répondre par l’affirmative, cependant les professionnels du marketing vont devoir être pro-actifs dès maintenant pour ne pas laisser passer ce tournant décisif pour le secteur.