Alexis Laporte dirige la société Hubware spécialisée dans
l’automatisation de réponses emails.
hubwa.re
Hubware aide les équipes de support client à répondre aux emails. Concrètement, notre technologie permet de se brancher aux systèmes utilisés par les conseillers afin de les observer et identifier la bonne réponse à apporter au client. C’est notamment le cas sur les réponses fréquentes. Nous proposons un brouillon de réponse aux conseillers ou nous répondons à leur place si nous sommes autorisés à le faire. L’objectif est de permettre aux conseillers de se concentrer sur d’autres tâches à plus grande valeur que les réponses répétitives. Pour cela, nous créons un modèle d’IA à chaque client à partir de l’historique des emails.
Nous réalisons au sein de notre entreprise ce que l’on nomme NLP (abréviation de Natural Language Processing ou traitement automatique du langage naturel en français). Historiquement, le NLP est associé à des notions d’analyse du langage sémantique avec une dimension d’intelligence de la langue. Aujourd’hui, les acteurs qui font du NLP utilisent largement le machine learning ce qui diffère des statistiques. En ce qui nous concerne, notre parti pris repose sur le mélange des deux lors de la création de nos modèles. Nous utilisons le machine learning tout en nous appuyant sur les dictionnaires de synonymes afin par exemple de reconnaître les verbes à travers la conjugaison. Il s’agit de NLP au sens sémantique. Avec du machine learning, la finalité est purement prédictive.
Nous avons mis en place une technologie qui représente des arbres de décision automatiquement, du moment où nous avons les données comme les emails clients, les réponses des conseillers et les données de contexte des clients. Nous accompagnons en majorité des services client allant de 5 à 50 personnes notamment dans le e-commerce. Dans le cas d’un e-commerçant, ces données de contexte concernent le détail de la commande client. Dès lors si le client demande à annuler une commande et que nous avons le contexte, le conseiller pourra répondre « Non, vous ne pouvez pas annuler votre commande car elle a déjà été expédiée ». Ici, nous serons capables de comprendre avec plusieurs exemples que c’est parce que le statut de la commande est marqué comme « expédié » : il s’agit de machine learning. Dans la réalité, il y a des situations plus complexes avec des éléments non connus qui ne permettent pas d’apporter une réponse précise. Dans ces cas-là nous échangeons avec les conseillers pour trouver la réponse la plus juste : c’est un va-et-vient régulier entre technique et métier afin de converger vers le bon modèle dans une logique d’apprentissage supervisé. Notre équipe est d’ailleurs répartie à 50/50 entre commercial et R&D.
Selon moi, le principe de l’Intelligence Artificielle est de jouer avec des données pour établir des prédictions. Suivre un raisonnement logique et répétitif n’a aucun intérêt pour un humain. Nous pouvons donc lui éviter cette tâche via l’IA. Ce procédé est intéressant dans le cas d’un grand nombre de données qui complexifient les tâches. Par exemple, dans le domaine de la recommandation produit, aspect que nous ne traitons pas, un vendeur à un certain savoir-faire mais il est possible qu’il ne
connaisse pas l’ensemble du catalogue produit lorsque celui-ci est composé de milliers d’articles. Dans ce cas, la prédiction peut avoir un intérêt dans le sens où elle va pouvoir consulter et intégrer beaucoup plus de données puisqu’elle n’est pas limitée.
L’IA a aussi l’avantage de fonctionner en continu, même la nuit ! C’est un bon moyen de créer des alertes, notamment sur les traitements d’un service client qui se font sur une longue durée. Par exemple, lorsqu’un colis est perdu, une enquête est déclenchée auprès du transporteur. Certains services client ont mis en place des procédures où chaque matin, les enquêtes en cours sont analysées pour connaître leur statut. Une intelligence qui sait ce qu’est un retour positif et un retour négatif pourrait réaliser cette tâche en continu.
En ce qui nous concerne, nous avons décidé de nous concentrer sur l’email, au lancement de la société. Les canaux chat et téléphone sont complexes à traiter au niveau technique. Une des problématiques du téléphone notamment est d’accéder au flux voix en temps réel de façon digitalisée. En réalité, il est rare que le flux voix soit disponible dans les entreprises tandis que la connexion à une boîte email est évidente. En ce qui concerne la nature du flux, bien que la transcription de la voix en texte soit maîtrisée, une conversation téléphonique ne s’apparente pas à un simple bloc de texte à retranscrire. Les technologies liées à la voix ne sont pas mûres. Pour le canal chat, nous collaborons avec des partenaires éditeurs spécialisés. La retranscription en texte fait appel à une autre technologie que le NLP. Au-delà de la technique, et quel que soit le canal (email, chat, téléphone), n’oublions pas de chercher surtout à savoir pourquoi un conseiller dit « oui » ou « non » à un client qui souhaite mettre fin à son abonnement par exemple. Connaître les règles sous-jacentes qui amènent un conseiller à agir de telle ou telle façon ainsi que les actions qui en découlent est décisif dans notre métier.
Nous avons connu des réticences venant des collaborateurs qui ont, par la suite, compris l’utilité qu’une machine réalise les tâches répétitives et chronophages afin de dégager du temps pour d’autres, jugées plus valorisantes. En ce qui concerne l’évolution du métier, vous avez raison. Le métier évolue et les conseillers endossent un rôle de recommandations, d’écoute et d’empathie envers les clients. Cela permettra peut-être de mettre (enfin) un terme à l’utilisation des mots « agent » ou « opérateur » qui déshumanisent les personnes qui travaillent en centre d’appels. Je crois nécessaire que l’entreprise ou les institutions accompagnent les collaborateurs via la formation afin de s’adapter aux évolutions de leur métier liées à l’IA.
Selon moi, l’IA n’est pas fiable à 100% parce qu’il s’agit d’une création probabiliste qui repose sur des statistiques. C’est pourquoi il est bon de vérifier l’IA par le biais de séries de tests sur des données d’exemples afin de mesurer sa précision. Toutefois, on se heurte à un problème de taille : comment parvenir à tester toutes les IA en sachant que les sources d’erreurs proviennent souvent des données utilisées pour leurs apprentissages. Lorsque les données comportent des biais, les prédictions ont des chances d’en avoir, aussi. Par exemple, lors d’une expérimentation sur une voiture autonome, les chercheurs ont remarqué que celle-ci démarrait lorsqu’il commençait à pleuvoir.
Pourquoi donc ? La raison se situe dans les données d’apprentissage utilisées dont les photos, toutes prises au même endroit, présentaient une certaine coloration du ciel. Ainsi, sur des cas très rares et difficiles à prédire, la voiture adoptait un comportement inattendu dans un contexte très particulier.
Ce n’est pas vraiment « programmée » mais c’est qu’on lui a appris. Nous utilisons tellement de données pour apprendre qu’il est impossible de toutes les vérifier et donc de contrôler parfaitement le comportement de l’IA. Il y a des recherches en cours mais qui sont relatives au monde médical. Par exemple, des chercheurs travaillent sur la topographie du cerveau humain dans le but de reproduire certains aspects sur l’IA. Ainsi, dans de grands réseaux de neurones, les chercheurs essaient de voir où et comment passe l’information afin d’identifier le fonctionnement du cerveau humain.
De mon point de vue, je vois l’intelligence artificielle appliquée à des cas bien précis avec des données qui lui permettent effectivement d’apprendre à prendre des décisions, de jouer aux échecs ou de conduire une voiture (même si cela n’est pas encore totalement opérationnel). Une IA qui arriverait à cumuler un ensemble de choses qu’on lui a appris avec des techniques d’apprentissage modernes serait envisageable. Néanmoins, il y aura certaines choses qu’elle ne saura jamais faire. On reste toujours dans un cadre où il faut que les règles du jeu lui soient accessibles pour qu’elle puisse apprendre. Si un humain n’est pas capable de suffisamment bien décrire quand et comment est-ce qu’il fait la tâche, alors l’IA n’aura pas le moyen de l’apprendre. Pour mieux comprendre ce qu’une IA pourrait ou ne pourrait pas faire, on peut se demander si l’humain serait capable d’écrire le mode d’emploi de ce qu’il fait, même si ce mode d’emploi est relativement compliqué. Si la réponse est « oui », alors on pourra l’apprendre à une IA. En revanche s’il s’agit d’un art, rien n’est moins sûr.
Faites vous aussi partie de l'annuaire 2021 de l'IA et référencez-vous ! Complétez votre fiche entreprise et dites-nous en plus sur votre histoire, vos produits et votre savoir-faire.
COMPLÉTER MA FICHERetrouvez toutes nos références liées à l'intelligence artificielle : dossiers et articles inédits, interviews, organismes d'accompagnement et de subventions, instituts de recherche, lectures conseillées...
EN SAVOIR PLUS