Survey-Magazine : Quels outils et techniques d’IA utilise-t-on dans la
recherche en marketing ?
Grégoire De Lassence : Tout d’abord, un néophyte peut se perdre
dans les différentes dénominations proposées par les divers acteurs ;
chacun ayant un nouveau concept pour se différencier. Que l’on parle de
Data Mining ou de Machine Learning, de réseaux neuronaux ou
d’intelligence artificielle, ce qui m’intéresse est l’apprentissage sur
un passé connu, pour modéliser le comportement du client. Appliquer sur
les données actuelles des clients, cela permet de prévoir pour chaque
consommateur quels produits proposer, avec quelle promotion, au prix
optimal, par le canal le plus efficient et au moment opportun. Le
corollaire est de ne pas importuner les clients afin de ne pas les faire
fuir. On doit créer de plus en plus souvent ces scorings, les appliquer
en temps réel et les rendre autoapprenants. Ce petit rappel me semble
nécessaire afin de préciser qu’il faut différentier l’IA « gadget » que
l’on utilise sur un problème donné et l’IA intégrant la modélisation de
multiples facettes du client. Il y a de l’intelligence artificielle
avancée dans la reconnaissance d’image, de visage ou dans la
reconnaissance vocale. Néanmoins, cela n’a rien à voir avec
l’intégration et la mise en production d’une myriade de modélisations.
S’il y a actuellement beaucoup de maquettes ou proof of concepts très
intéressants, peu d’entreprises sont véritablement dans une logique
d’industrialisation de l’analytique. Je distinguerais deux catégories
d’IA :
- L’IA ponctuelle, pour un problème donné. Ce peut être de
l’apprentissage profond ou Deep learning qui est utilisé pour une étude,
une analyse. L’intégration de ces outils n’est pas trop compliquée. Ce
peut être une solution de reconnaissance faciale qui vous dit un simple
« bonjour » par votre prénom.
- L’IA intégrée qui permet de croiser
énormément d’informations nécessite une culture d’entreprise du test and
learn permettant de tout mesurer et d’industrialiser les processus
analytiques. Le croisement des données de tous les canaux en temps réel
avec l’intégration de l’historique, afin de vous recommander les deux
offres qui vous correspondent le plus nécessite une machinerie bien
huilée. Il faut à chaque fois qu’il y ait un petit échantillon témoin,
afin de comparer que si l’on ne faisait rien, ce ne serait pas aussi
bien.
Il y a donc un fossé énorme entre la recherche en marketing qui est généralement ponctuelle, et l’industrialisation de l’analytique qui est une stratégie marketing d’entreprise. Si beaucoup d’entreprises prétendent avoir une connaissance à 360° de leurs clients, rares sont celles qui peuvent mettre l’IA en production sur tous les axes d’analyse afin d’en tirer un avantage concurrentiel significatif.
Quels sont les apports concrets de l’IA par rapport aux méthodes
d’études classiques ?
Les études marketing peuvent intégrer de l’IA ponctuelle. Par exemple,
la reconnaissance d’image peut être utile pour connaître l’humeur d’un
client. Mais cela apporte relativement peu de retour sur investissement
par rapport à l’industrialisation de l’analytique. Les études marketing
ne sont pas remises en cause, bien au contraire. Avec
l’industrialisation de l’analytique dans les big data, ce sont deux
domaines complémentaires. L’IA artificielle permet d’étendre le
périmètre des études. Il y a un peu plus de 10 ans, j’ai travaillé sur
un projet où des réseaux neuronaux permettaient de modéliser
relativement bien le seuil psychologique à partir duquel un client
commençait à devenir fidèle et à ne plus comptabiliser les remises.
Ainsi, après avoir investi avec beaucoup de remises, il a été possible
de les espacer et récupérer un peu l’investissement de départ.
Le comportement des clients est une chose souvent très complexe à analyser et l’apport des technologies de Big data permettant de croiser et d’analyser en quasi temps réel une multitude d’informations, repousse considérablement les limites. Dans certains cas, la précision des modèles permet des analyses beaucoup plus fines et donc des bénéfices. Néanmoins, la plupart des problèmes du marketing de base de données des années 90 ou du CRM des années 2000 ne sont toujours pas facilement résolus. S’il est vrai que l’IA permet de reconnaître la voix ou de comprendre des textes, le problème de la qualité des données demeure. Faire travailler ensemble des équipes de marketing avec des data scientists et des informaticiens, continue d’être compliqué, notamment à cause des luttes de pouvoir. Le champ des opportunités est extraordinaire, mais ce n’est pas magique.
Quelles sont les orientations de SAS à ce sujet ?
De façon communément acceptée, on parle de Big data depuis le début de
cette décennie. Néanmoins, s’il y a beaucoup de communication et de
recherche et particulièrement en intelligence artificielle, les projets
en production – générant déjà un retour sur investissement – sont
extrêmement rares en Marketing.
Aux luttes de pouvoir entre les différentes directions, se rajoutent notamment la mauvaise qualité des données et la méconnaissance récurrente du sujet, bloquant ainsi la réussite des programmes. L’exemple très connu de « l’achat de couches-culottes le vendredi en fin de journée, qui implique l’achat de bière » est une légende urbaine sur laquelle s’est appuyée une multitude de vendeurs de projets de Data Mining. Pour vendre des projets de Big Data, les « Big Mensonges » fleurissent très vite. SAS propose la plateforme la plus fiable et robuste pour l’industrialisation de l’analytique. Il y a de nombreux projets qui fonctionnent très bien et dont on parle trop peu comme la détection de la fraude, la lutte contre l’évasion fiscale, la lutte contre le blanchiment d’argent ou l’évaluation des risques. Le savoir-faire acquis sur ces projets doit pouvoir être très utile pour la mise en production de l’analytique sur les données massives pour le marketing. Il me semble que la mise en production, l’industrialisation de l’analytique est un challenge encore mal compris et que le fossé se creuse entre les organisations qui n’y arrivent pas et celles qui excellent. SAS propose une plateforme d’industrialisation et de maintenance de l’analytique de très haute qualité, sur les données massives, du digital notamment, ce qui en fait un acteur toujours incontournable.
Après 15 ans chez SAS, je suis presque redevenu un petit garçon émerveillé des possibilités offertes par les dernières solutions. L’exploitation des données en temps réel sur la nouvelle plateforme offre des perspectives très intéressantes. SAS Viya est une architecture en microservices pour le cloud très puissante, flexible, intégrée, simple d’installation et d’utilisation. De plus, la maturité progressive des organisations sur le sujet devrait permettre de réaliser de magnifiques projets. Par exemple, pour un leader de la grande distribution, si les équipes de recherche et développement n’ont utilisé que des solutions open source, pour la mise en production, les contraintes de performance, sécurité ou fiabilité ont imposé la plateforme SAS Viya.