L’intelligence artificielle est clairement l’élément disruptif majeur des prochaines décennies, capable de bouleverser les équilibres dans tous les domaines de l’activité humaine. Les puissances politiques et économiques de la planète se sont déjà emparées du sujet pour l’élever au rang de priorité absolue. La Chine vient d’annoncer des investissements massifs et une volonté de leadership d’ici 2025. Le président Russe a suscité l’inquiétude en affirmant que celui qui maîtriserait l’Intelligence Artificielle dominerait le monde. La France a également lancé l’année dernière un plan idoine pour développer et soutenir l’écosystème de l’IA français. Il n’y a que l’administration Trump qui ignore encore ostensiblement la question, malgré les invites répétées des géants américains du web. Ceux-ci sont d’ailleurs sur le qui-vive. Google, IBM, Microsoft et Amazon ont chacun lancé sa plate-forme d’IA et affichent clairement des stratégies « AI First » tous azimuts. Facebook a recruté l’une des stars de l’IA, le français Yann LeCun, à l’origine du renouveau du Deep Learning et des réseaux de neurones. Les grands éditeurs de logiciels (SalesForce…) intègrent des algorithmes d’IA dans leurs solutions pendant que des milliers de startups se lancent partout dans le monde pour proposer des outils d’intelligence artificielle.
D’où vient cet emballement soudain et généralisé pour un concept qui a plus d’un demi-siècle et qui a déjà largement déçu dans le passé ? S’agit-il d’une excitation passagère ou d’une lame de fond qui peut changer la face du monde ? L’Intelligence Artificielle est, en tout cas un concept chargé d’affect qui touche l’essence de l’humain et soulève logiquement autant d’espoirs que de craintes. En imitant l’homme, puisque c’est de cela qu’il s’agit dans l’imaginaire collectif (et pas forcément dans la réalité comme nous le verrons), la technologie peut, pour certains, assister l’humain et le soulager, et, pour d’autres, le remplacer et l’aliéner. C’est l’éternel problème du verre à moitié vide ou à moitié plein. Notre propos en tout cas ici, est surtout d’évoquer la nécessaire adaptation à la nouvelle donne. C’est d’ailleurs la définition même de l’intelligence qui est (selon wikipédia) « l’ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d’apprendre ou de s’adapter à des situations nouvelles. »
Nous allons donc chercher à comprendre ce qu’est exactement l’I.A., d’apprendre les concepts sous-jacents tels le machine learning et le deep learning, puis d’évoquer les possibilités d’y adapter le champ de compétence qui nous intéresse dans ce magazine, à savoir les techniques marketing et de connaissance des clients.
Le terme « intelligence artificielle » a été utilisé pour la première fois en 1956, lors d’une conférence organisée à l’université de Dartmouth par un jeune professeur de Mathématiques, John McCarthy, qui réunit une poignée de chercheurs dont des futurs ténors de la discipline (Marvin Minsky, Claude Shannon…). L’invitation spécifiait que « L’étude doit partir de la conjecture que chaque aspect de l’apprentissage ou tout autre attribut de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être faite pour le simuler. On tentera de trouver comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes maintenant réservés aux humains et s’améliorent ».
Un démarrage laborieux
L’idée de base était donc de modéliser l’intelligence humaine pour simuler son fonctionnement sur des machines capables d’apprendre et de s’améliorer. Les chercheurs de l’époque étaient convaincus d’être en mesure d’égaler les performances du cerveau humain avec du temps et un budget adéquat. Les autorités américaines partageaient le même optimisme. Dans le contexte ambiant de guerre froide, le département de la défense finançait généreusement les domaines susceptibles d’offrir au pays un avantage décisif. L’informatique et l’IA en profitèrent. Les grandes universités installèrent des ordinateurs de plus en plus puissants et créèrent des laboratoires spécialisés comme le AI Lab, fondé au MIT par McCarthy et Minsky (la location d’un ordinateur pouvait coûter alors jusqu’à 200.000 $ par mois !).
Au départ, les avancées de l’intelligence artificielle furent extraordinaires. L’augmentation de la puissance de calcul permettait de résoudre des problèmes de plus en plus complexes et laissaient espérer l’avènement imminent d’une machine « avec l’intelligence générale d’un être humain ordinaire » comme le déclara Minsky au magazine Life en 1970. Le dépassement des champions humains dans les jeux de stratégie comme les échecs paraissait alors à portée de main.
Pourtant, malgré tous les investissements et les efforts, les résultats plafonnèrent bien en deçà des attentes. L’IA s’améliorait mais restait cantonnée à la résolution de problèmes simplistes, freinée par les possibilités de calcul et de stockage limitées des ordinateurs de l’époque. L’optimisme exagéré des chercheurs qui avaient sous-estimé les difficultés provoqua en retour une défiance croissante du public et des autorités.
En 1973, le rapport Lighthill publié au Royaume Uni, vint faire un constat très sévère des limites et insuffisances de l’intelligence artificielle. Il indiqua clairement « qu’aucune des découvertes de l’IA n’a encore produit l’impact majeur qui a été promis ». Ce rapport marqua la fin de l’âge d’or de l’IA et le début d’une longue période d’hibernation.
L’Intelligence Artificielle ne revint en grâce qu’une dizaine d’années plus tard. Ce fut l’époque des « systèmes experts » destinés à résoudre des problématiques précises dans des domaines d’expertise particuliers. Ces systèmes se composaient d’une part d’une base de connaissances avec des règles et des faits et, d’autre part, d’un moteur d’inférence permettant d’appliquer les règles sur des données en entrée pour délivrer une conclusion logique en sortie. Le principe était donc d’imiter le raisonnement d’un expert dans un domaine précis pour faire un diagnostic en posant des questions et en affinant au fur et à mesure la solution, en fonction des connaissances disponibles.
L’engouement pour ces systèmes fut aussi important que bref. L’arrivée de micro-ordinateurs de plus en plus puissants fit de l’ombre aux machines Lisp habituellement utilisées pour les systèmes expert. Comme par le passé, les applications de l’IA restèrent limitées et très exigeantes en budget, ce qui commença à poser des problèmes dans une conjoncture de crise économique. Le département de la défense américain qui avait, comme par le passé, soutenu de nombreux développements d’IA décida au début des années 90 d’arrêter ses investissements, considérant que l’intelligence artificielle était un peu dépassée et qu’il fallait réorienter les subsides vers des projets plus prometteurs.
Il en fut de même au Japon. Le pays s’était lancé en 1981 dans le développement d’ordinateurs de 5ème génération. On considéra vers 1991 que les objectifs fixés au départ n’avaient pas été atteints. Ces objectifs étaient d’ailleurs déraisonnables au regard des possibilités techniques de l’époque. Ils incluaient par exemple la possibilité de mener une conversation ordinaire avec les machines, chose qu’on n’arrive pas encore à réaliser parfaitement aujourd’hui.
L’IA déçut donc une deuxième fois, pour des raisons économiques et conjoncturelles, mais aussi en raison de la difficulté à produire des résultats à la hauteur des espérances associées et en conformité avec les investissements nécessaires. Les recherches en IA se poursuivirent ça-et-là, en l’absence de financement public et sans battage médiatique. C’est à cette période que certains objectifs que les chercheurs optimistes des années 60 s’étaient fixés furent atteints. Le plus emblématique fut la victoire, en 1997, de Deep Blue d’IBM sur le champion du monde d’échecs Gary Kasparov. Cet événement eut un retentissement mondial et participa au regain d’intérêt pour l’IA.
L’emballement actuel
L’intelligence artificielle s’impose aujourd’hui sur le devant de la scène scientifique et médiatique. C’est plus qu’un retour en grâce, plutôt une déflagration qui s’étend à toutes les sphères économiques, politiques, sociales… Il ne se passe pas un jour sans qu’on ne parle de l’IA dans les médias. Plusieurs ouvrages comme « La guerre des intelligences » de Laurent Alexandre ou « Le mythe de la Singularité » de Jean-Gabriel Ganascia ont connu un grand succès et fait l’objet de nombreuses émissions, articles et débats.
La notoriété de la discipline s’est accrue partout dans le monde. En France, une étude de Médiamétrie réalisée en novembre 2017 a révélé que 85% des personnes interrogées avait déjà entendu parler d’Intelligence Artificielle (même si le niveau de compréhension sur les usages de l’IA était encore plutôt faible). Cette même étude a décelé un niveau de soutien surprenant pour l’IA, qu’on aurait pu imaginer à la source de nombreuses défiances et peurs diffuses. En effet, 86% des personnes interrogées ont considéré que le développement des technologies d’intelligence artificielle allait avoir des effets positifs pour la société dans son ensemble.
Le développement de la recherche et des créations d’entreprises témoigne également du renouveau de l’intelligence artificielle. Selon l’AI Index 2017 publié par l’université de Stanford, le nombre d’articles scientifiques publiés aux Etats-Unis sur le sujet de l’IA a été multiplié par 9 depuis 2000. La création de startups aux USA a été multiplié par 14 et les financements annuels par 6.
Comment expliquer l’emballement général pour l’IA, cette idée vieille de plus d’un demi-siècle ? Pourquoi la technologie semble aujourd’hui si prometteuse et si disruptive alors même que les travaux actuels se basent sur des méthodes et concepts forgés il y a au moins 25 ans ?
Les sources de jouvence
En réalité, l’univers de l’IA profite aujourd’hui d’un véritable
alignement favorable des planètes :
- La puissance de calcul a augmenté de manière exponentielle comme le
prévoyait la « loi de Moore », énoncée en 1965 par Gordon Moore, l’un
des futurs fondateurs d’Intel (1968). Ce dernier avait observé que le
nombre de composants dans les circuits intégrés doublait tous les ans
depuis 1959 et avait prédit que ce mouvement allait se poursuivre. Il
avait révisé sa prédiction en 1975, en indiquant que le nombre de
transistors sur les micro-processeurs allait doubler tous les 2 ans.
Cette prédiction empirique s’est vérifiée jusqu’à présent, même si on
assiste depuis peu à un ralentissement dû à des limites physiques
difficiles à dépasser. L’augmentation exponentielle de la vitesse des
microprocesseurs et des capacités de stockage ont, en tout cas, ouvert
d’extraordinaires possibilités de calcul dont bénéficie l’IA
aujourd’hui.
- Le big data produit désormais d’énormes masses de
données, très utiles aux algorithmes d’apprentissage de l’IA. Ainsi, les
millions de textes, d’images et de vidéos disponibles sur le net servent
aujourd’hui de matière première pour mettre au point, entraîner,
perfectionner et évaluer les systèmes de reconnaissance automatique en
tout genre. Des bibliothèques d’images ont ainsi pu être constituées,
comme celle établie dans le cadre du projet ImageNet (piloté par les
Universités de Stanford et de Princeton). ImageNet comporte aujourd’hui
plus de 14 millions d’images annotées et organise un challenge annuel
(ILSVRC) sur la détection et la classification des objets et des scènes
contenues dans les images.
- Les méthodes de deep learning
elles-mêmes en ont logiquement profité et se sont beaucoup
perfectionnées. L’augmentation de la puissance des machines a permis de
mettre au point et d’expérimenter des modèles complexes. Les chercheurs
ne pouvaient auparavant faire appel qu’à un petit nombre de neurones
avec un faible nombre de couches et des connexions pauvres entre ces
différentes couches. Les modèles utilisés n’étaient donc pas très
puissants et restaient inférieurs à ceux conçus spécifiquement par des
experts.
La conjonction des évolutions technologiques, de la disponibilité de matière première pour l’apprentissage et des progrès théoriques ont permis des avancées spectaculaires qui ont remis sur l’IA sur le devant de la scène. On a beaucoup parlé du succès du programme Watson d’IBM au jeu télévisé Jeopardy, puis des victoires du programme AlphaGo de la filiale DeepMind de Google, qui a terrassé le champion du monde Lee Sedol en 2016 puis la nouvelle superstar du Go, Ke Jie, en 2017. On parle beaucoup aujourd’hui des voitures et camions autonomes de Google ou de Tesla, des prouesses en diagnostic médical d’IBM Watson, des assistants vocaux d’Apple ou d’Amazon…
Tout cela donne l’impression que l’IA est l’affaire des géants mondiaux et qu’elle repose sur des mécanismes inaccessibles au commun des entreprises. Or c’est loin d’être le cas…
Comprendre l’IA
L’Intelligence Artificielle fait partie comme le Big Data ou la Blockchain de ces concepts technologiques que l’on évoque bien plus qu’on ne comprend vraiment. Les notions à la base de l’IA restent en effet très floues, et on a encore du mal à comprendre comment tout cela fonctionne concrètement. Cette méconnaissance alimente à la fois des espérances parfois démesurées et des craintes souvent excessives qui accompagnent les prises de position sur le sujet. Essayons d’y voir clair.
Une intelligence focalisée
Il faut tout d’abord bien comprendre que la notion d’intelligence dont on parle en IA est, pour l’instant du moins, focalisée sur un processus unique. On parle d’IA faible par opposition à l’IA forte, consciente d’elle même et capable de simuler les actions et raisonnements humains dans toutes leurs dimensions. L’éventualité de l’avènement de cette IA forte est la source des débats passionnés et des inquiétudes de certains futurologues fébriles.
L’intelligence artificielle dont on parle aujourd’hui (et au moins pour quelques dizaines d’années encore) cherche donc à reproduire les mécanismes du raisonnement humain sur une problématique bien précise. Pour cela, les programmes d’IA se basent sur des algorithmes, comme tous les systèmes et programmes informatiques que nous utilisons tous les jours. Ce qui caractérise l’IA se résume en deux mots : Machine Learning. En effet, alors qu’un programme informatique classique doit prévoir à l’avance tous les cas de figures et les combinaisons d’évènements, un programme d’IA basé sur du Machine Learning est conçu pour apprendre, s’adapter aux situations nouvelles dans le contexte défini et évoluer pour mieux les prendre en compte à l’avenir.
Comment la machine apprend ?
Pour apprendre, un système a besoin de données en entrée qui vont lui permettre de s’entraîner pour être en mesure d’effectuer des prédictions sur des nouvelles données qui lui seraient présentées. Cet apprentissage peut être supervisé ou non supervisé.
En mode supervisé, le jeu de données fourni pour entraîner le système doit comporter la réponse pour chaque enregistrement, sur la variable à prédire. Ainsi, si vous souhaitez mettre en place un algorithme de scoring de nouveaux clients, vous devez fournir au système un jeu d’entraînement comportant des clients existants avec leurs caractéristiques (prédicteurs) et le score qui est associé à chacun d’entre eux (valeur à prédire).
L’apprentissage non supervisé fonctionne sans valeur de référence. Le jeu d’entraînement ne comporte que des caractéristiques à partir desquelles le système est chargé de constituer des groupes. Cette approche correspond aux processus de classification bien connus des professionnels des études. Les groupes ainsi définis en détectant les similarités entre les individus du fichier, peuvent être étiquetés à posteriori par l’expert humain après analyse de leurs caractéristiques.
Après cette phase d’apprentissage, il devient possible d’interroger le système sur des nouvelles données pour avoir un pronostic en fonction de ce qu’il a appris. Cette interrogation peut être ponctuelle ou en direct. Le premier cas correspond à un usage analytique, où le praticien utilise le programme d’IA pour qualifier un fichier de données. Le deuxième mode correspond à une interaction en temps réel avec l’algorithme d’IA pour évaluer, par exemple, des actions à effectuer en fonction du comportement du visiteur d’un site web.
La qualité du fichier d’entraînement est bien sûr essentielle pour un
apprentissage pertinent. Il importe donc de le concevoir avec soin, en
veillant à plusieurs paramètres :
- Représentativité des données
: les données en entrées doivent intégrer toutes les nuances que
vous souhaitez dégager et exclure les données aberrantes qui pourraient
fausser l’analyse.
- Qualité des prédicteurs : ces prédicteurs
doivent permettre à l’algorithme de dégager un modèle d’analyse
pertinent. La présence d’éléments inutiles peut fausser le système et
aboutir à une modélisation inefficace.
- Quantité de prédicteurs
: le surplus d’indicateurs réduit en général la qualité de la
modélisation. Il vaut mieux, en amont, combiner des variables de manière
logique pour produire des prédicteurs plus compacts et
significatifs.
- Taille : un fichier trop petit ne permettra
pas d’obtenir une prédiction de qualité. Les règles classiques
d’échantillonage utilisées en market research s’appliquent parfaitement
dans ce cas.
Comme nous le voyons ici, l’IA ne fait pas disparaître l’expertise humaine, bien au contraire. Les algorithmes d’intelligence artificielle basent leur fonctionnement sur ce qui leur est fourni au départ. Leur capacité de calcul rapide et de combinaisons complexes dépasse les nôtres.
Laissons la parole de la fin à l’excellent Kasparov pour qui « Les machines font des calculs. Nous comprenons les choses. Les machines reçoivent des instructions. Nous avons des buts. Les machines ont pour elles l’objectivité. Nous avons la passion. Nous ne devrions pas avoir peur de ce que nos machines peuvent faire aujourd’hui. Nous devrions plutôt nous inquiéter de ce qu’elles ne peuvent toujours pas faire car nous aurons besoin de l’aide de ces nouvelles machines intelligentes pour faire de nos rêves les plus fous une réalité. »