Les méthodes d’analyse textuelle statistique, sémantique ou linguistique ne sont pas nouvelles mais connaissent aujourd’hui un véritable regain d’intérêt face au déluge de données brutes sous forme de texte issues des sources Big Data (Facebook, Twitter, blogs, forums etc.) Nous avons sollicité tous les instituts d’études pour identifier leurs innovations et leurs offres en la matière et nous avons été surpris par le faible nombre d’initiatives vraiment intéressantes. Voici celles que nous avons repérées :
NIELSEN crée une division dédiée à l’expérience client basée sur l’analyse de données collectées
La nouvelle division NCX (Nielsen Customer Experience) accompagne les entreprises dans la gestion de leur relation client. Le service repose sur un outil qui collecte et analyse des données textuelles en temps réel à chaque point d’interaction (centre d’appels, magasins, site web, réseaux sociaux, application mobile etc.). Il est question de cartographier les attentes client et évaluer leurs feedbacks via des outils marketing connus tels que le Net Promoter Score. Les informations sont consolidées dans des tableaux de bord. L’outil Nielsen Listening Platform est mis au point par Response Tek.
Analyse sémantique & mathématiques appliquées pour EKIMETRICS
Le cabinet de conseil associe expertise en mathématiques appliquées, connaissance opérationnelle et analyse sémantique dans l’exploitation des données textuelles. Ekimetrics délivre des insights aux différents métiers au-delà d’une simple approche algorithmique et couvre l’ensemble de la chaîne de valeur de la data avec notamment une maitrise de la Data Visualization. Ekimetrics a par ailleurs développé un indice de viralité propriétaire composé à partir des données du web social. Plus loin, le cabinet cherche à évaluer l’impact d’un buzz sur le chiffre d’affaires de l’entreprise. Enfin, une expertise en Data Journalisme sur les données issues du web social est mise à disposition de grands médias et annonceurs pour expliciter des événements culturels, politiques et sportifs tels que la Cop21, le festival de Cannes ou la coupe du monde de Football.
Nouvelles fonctionnalités pour la plate-forme de pilotage KANTAR MEDIA
Nous présentions la plateforme d’analyse, d’exploitation et pilotage de la Média Data dans notre précédent numéro. L’outil nommé km+ vise à croiser les retombées médias des différents supports – presse, web, TV, radio – y compris les réseaux sociaux. L’outil permet ainsi de comparer l’impact d’un tweet par rapport à celui d’un article de presse. Kantar Media implémente régulièrement de nouvelles fonctionnalités liées à l’analyse textuelle dont le traitement de la tonalité des retombées, tweets ou commentaires. Il est également en mesure de suggérer une sélection d’articles disposant d’un contenu textuel proche de celui d’une retombée donnée. D’autres fonctions telles que la visualisation des données grâce à des tableaux de bord et infographies exportables, ainsi que la possibilité de partage sur Twitter et via des commentaires/like/highlight complètent l’outil.
VOX MINING retranscrit la voix du client
Vox Mining est une offre de social listening qui consiste à agréger et analyser toutes les données textuelles disponibles sur le web, les réseaux sociaux et par extension au sein même des entreprises (CRM, verbatim d’enquête de satisfaction…). L’objectif est de fournir des insights. Ces avis (positifs ou négatifs), commentaires et suggestions sont recensés, triés et quantifiés pour répondre aux enjeux des annonceurs : usages et attitudes sur leur marché, parcours d’achat et expérience client, images des marques, cartographie du web… Concrètement, les données collectées sont nettoyées (suppression des contenus non pertinents ou hors scope), traduites et ajustées au niveau de l’orthographe. Pour ensuite être analysées sous toutes les coutures : analyse du sentiment, création d’une nomenclature des contenus (classification classique et manuelle en thèmes, identification des verbatim singuliers), analyse sémantique etc. L’institut d’études Vox Mining bénéfice de l’expertise de son créateur Frédéric Basseto (Ipsos, IRI France, MarketingScan, Secodip) qui dispose d’une expérience de 25 ans en Market Research.
NET-CONVERSATIONS mise sur l’analyse sémantique
Le cabinet d’étude DCAP Research a développé un outil d’écoute du web qui fonctionne par analyse sémantique : réseaux sociaux, FAQ, plateforme SAV et forums sont passés au crible. Une fois le sujet précisé, l’outil répertorie les conversations trouvées qui sont en lien et génère des profils type ou personas à partir des motivations et besoins des individus. Cela permet de déterminer par la suite les jeux d’influence qui s’opèrent et définir des cibles potentielles. La spécificité de Net-Conversations repose sur des algorithmes qui appliquent aux contenus traités des principes de représentativité qui assurent la fiabilité des résultats et leur extrapolation à la cible visée. DCAP Research accompagne déjà de nombreux acteurs comme PSA Peugeot Citroën, SNCF et L’Oréal dans leurs stratégies de communication et d’innovation.
CUSTOM SURVEY mène une veille sur le web
L’outil se présente sous la forme d’une plateforme d’analyse de conversations émises sur le web (forums, réseaux sociaux etc.). Les verbatim sont recueillis puis traités afin de déceler l’opinion suggérée. Les leaders d’opinion sont ainsi rapidement identifiés. Les résultats sont présentés de façon graphique pour un rendu dynamique. Scan-research et le Terrain sont à l’origine de ce projet commun soutenu par la BPI, la Mairie de Paris et la région Ile-de-France.
QUALIGHTER simplifie la catégorisation des données
Qualighter est un outil d’analyse de contenus textuels dédié aux communautés d’études en ligne. L’administrateur de l’étude a pour action de relier manuellement chaque donnée textuelle à un mot clef, une thématique ou une humeur. L’outil regroupe, classifie et expose ensuite ces informations affiliées à un même concept, thème ou émotion ce qui permet de rapprocher concrètement les verbatim clients entre eux pour une exploitation marketing plus rapide.
ETHNOSDATA multiplie le nombre de connecteurs vers les sources Big Data
Soft Concept a annoncé la disponibilité d’une série de connecteurs vers de nouvelles sources de données web et Big Data, pour en capturer le contenu et permettre son traitement statistique en parallèle avec des données d’enquêtes ou de divers fichiers ou bases de données de l’entreprise. L’un des nouveaux connecteurs permet de capturer les sous-titres de vidéo YouTube. Un autre permet de lancer une récupération de prix pour un produit ou une famille de produits sur différents sites marchands. Les connecteurs existants de capture de forums, de flux RSS et de données de réseaux sociaux (tweets, posts Facebook…) ont été étendus. L’utilisateur dispose désormais, pour chaque famille de connecteurs d’une interface web intégrée lui permettant de sélectionner parmi des milliers de sources disponibles. Ces sources sont mises à jour quotidiennement par les équipes de l’éditeur Soft Concept.
IPROSPECT DATA CONSULTING facilite la gestion de la data
iProspectData Consulting est le pôle consulting data de l’agence iProspect. Il accompagne les marques et entreprises sur une variété de problématiques : mesures d’efficacité de sites web, de campagnes médias, projets de qualification d’audience etc. Le point d’orgue de ces projets repose sur l’analyse de comportements d’internautes lors de leur navigation web ou sur les applications mobiles. iProspectData Consulting active ces connaissances pour le compte de ses clients, sur la base de scénarii marketing et bénéficie de l’ADN digital de iProspect. Ainsi la nouvelle entité intervient à la fois sur des sujets d’activation marketing, de choix de solution technologiques et de formation des utilisateurs finaux. Un premier niveau de réponse d’ordre juridique est également délivré ; l’enjeu de la protection des données étant au cœur de la pratique. C’est à la jonction des métiers consulting et communication que se situe donc l’offre. Enfin, les technologies de Data Viz, nécessaires à l’optimisation de ces activations, sont maîtrisées grâce à une équipe R&D internalisée.