Big Data est une expression anglophone employée pour désigner
l’explosion massive des informations collectées, diffusées et stockées depuis
l’avènement du numérique.
Les experts du domaine définissent le Big Data par ce qu’ils dénomment les 3 V : Volume,
Variété et Vitesse.
• Volume : pour caractériser l’importance de ces flux de données. La quantité
d’information générée équivaut en un jour à ce que l’humanité avait produit jusqu’au 20ème
siècle.
• Variété : pour caractériser la provenance multiple de ces flux d’informations
(réseaux sociaux, mobiles, site web ou encore forums).
• Vitesse : pour caractériser l’importance de la fréquence à laquelle les données
sont remontées au sein des systèmes d’informations.
Toutefois les 3V ne suffisent pas à définir le phénomène Big Data puisqu’ils laissent croire
qu’il faut simplement augmenter la capacité des systèmes informatiques actuels pour s’adapter.
En réalité de nombreuses problématiques nouvelles émergent avec le Big Data : comment
collecter, traiter et régir ces données en temps réel ? Quelles solutions adopter pour
structurer l’ensemble de ces données ?
Nos systèmes informatiques sont aujourd’hui à revoir dès leur source pour gérer cette
quantité données en temps réel.
A noter que 2 nouveaux V ont fait leur apparition et permettent de cerner un peu plus cette
notion en pleine explosion :
• Véracité : pour caractériser l’importance de la qualité et de la fiabilité des
informations.
• Visibilité : pour caractériser l’importance de l’accès aux données rapidement et
facilement par ceux qui en ont besoin.