"Cogito, ergo sum" écrivait René Descartes dans son Discours sur la Méthode en 1637, "Je pense donc je suis". Tout est dit, ce que nous appelons aujourd'hui intelligence artificielle ne pense pas, donc l'intelligence artificielle n'existe pas, un point c’est tout. En 1956, lorsque John McCarthy et ses collègues ont décidé d'appeler la discipline sur laquelle ils travaillaient "Intelligence Artificielle", ils pensaient sincèrement pouvoir modéliser les fonctions d'un neurone à l'aide d'équations mathématiques et qu'en les réunissant en un réseau, ils pourraient imiter un cerveau reproduisant ainsi les capacités humaines les plus complexes. Il n'a pas fallu longtemps, moins d'une décennie, pour réaliser que ça ne fonctionnait pas, et la discipline est alors entrée dans son tout premier "hiver de l’IA" par l’assèchement des financements. Il y avait au moins deux raisons principales à cet échec. Tout d'abord, le postulat décrivant mathématiquement un neurone universel était faux, même aujourd'hui nous ne sommes pas encore sûrs de comprendre toutes ses fonctions possibles. La seconde raison vient du problème auquel ils voulaient s'attaquer : Comprendre le "langage naturel". C’est certainement la chose la plus compliquée à faire d’un point de vue cognitif, car, encore selon Descartes, le langage est le propre de l’Homme...
Déjà bien avant McCarthy, nous construisions des systèmes, des machines et des robots pour nous aider dans nos tâches ou problèmes quotidiens. On pourrait remonter jusqu'à l'Antiquité, mais je vais prendre deux exemples plus récents. Le premier est la Pascaline, toute première calculatrice, construite par Blaise Pascal en 1642. Même si cette machine trouvait comme par magie les résultats de n'importe quelle addition ou soustraction, sans jamais se tromper, on n'a jamais pensé à la qualifier "d’intelligente". C'était certes un bel outil mais juste un outil semblable à ceux apparus dans les soieries à la fin du XVIIIe siècle pour remplacer les tâches répétitives et ardues des ouvriers tisserands. Ces premiers métiers à tisser, premiers types de robots, malgré la menace qu’ils faisaient peser sur l'emploi, ne portaient aucun signe d'intelligence.
C'est seulement parce que McCarthy a fait l'erreur d'appeler cette discipline "Intelligence Artificielle" que nous avons commencé à croire, dans notre subconscient collectif, que les algorithmes que nous avions créés pouvaient devenir plus intelligents que nous. Mais ce n'est pas le cas. Toutes les techniques utilisées depuis 60 ans sont créées et contrôlées par nous, humains. Qu'il s'agisse de "System Experts", "Rules Engines", "Machine Learning" ou "Deep Learning", toutes ces techniques qui font partie de la discipline utilisent des règles ou des données que nous avons créées ou produites. Des règles ou des données qui existent parce que nous les générons, nous, ou les "experts" du domaine, pouvons les expliquer. Prenons l'ordinateur Deep Blue d’IBM, qui, en 1997, a battu le grand maître d’échecs Gary Kasparov. Il n'a pas battu Kasparov parce qu'il était plus intelligent, il l'a battu parce qu'on pouvait mettre dans sa mémoire tous les 10 puissance 49 coups possibles des échecs. C'est ce qu'on appelle la force brute.
Il est aussi intéressant d’étudier l’impact qu’a pu avoir l'avènement d'Internet et du Big Data, sur une des applications les plus populaires des réseaux neuronaux : la vision par ordinateur. Les réseaux neuronaux ne sont que des bêtes statistiques qui ont besoin d'une grande quantité de données pour former des modèles que nous pouvons ensuite utiliser pour reconnaître ce que nous recherchons. Pour des raisons que je ne m’explique guère, il y avait dès le début d’Internet une quantité incroyable d'images de chats... Les spécialistes de la vision par ordinateur ont profité de cette aubaine pour développer et tester leurs modèles et autres algorithmes, faisant progresser à grands pas leurs techniques. Mais pour comprendre, encore une fois, que ces techniques n'ont rien à voir avec de l'intelligence, ou du moins avec la façon dont les humains reconnaissent les choses, nous voyons que tout algorithme a besoin d'environ 100 000 images de chats pour reconnaître raisonnablement un chat dans une image, alors que, selon les psychologues, un être humain n’aura lui besoin que de 2 instances de chats pour les reconnaître sans aucune erreur pour toujours. Même quand ils sont dessinés par Picasso....
Les biais dans les données, qu'ils soient volontaires ou non, alimentent les réseaux avec une fausse "vérité de terrain". C’est un des plus grands dangers des techniques statistiques utilisées aujourd'hui par l'IA. Mais à cause de cette force brute qu'elles utilisent, un autre problème, souvent négligé, est l'énorme quantité d'énergie qu'elles mobilisent. Vous avez très probablement entendu dire que récemment, en 2016, un programme, Alpha Go, fonctionnant sur un ordinateur appelé Deep Mind, a battu le champion du monde de Go. Pour battre son adversaire Alpha Go a dû utiliser environ 1500 CPU, 200 à 300 GPU et quelques 30 TPU, soit l’équivalent de 2000 serveurs ou un petit data center. Toute cette puissance de calcul consomme environ 440KW rien que pour jouer au Go, alors que son adversaire humain ne consomme qu’environ 20W et qu'il est capable de faire bien plus que jouer au Go !
Comme c’était déjà le cas avec la Pascaline ou les robots du 18ème siècle, les applications courantes et à venir de l'IA sont fantastiques parce qu'elles nous permettent d'augmenter nos capacités et d'effectuer de plus en plus de tâches. L'apprentissage machine et l'apprentissage profond n'en sont qu'à leurs débuts, et les domaines d'application vont s'élargir et voir des "assistants" et de nombreux secteurs d’activité dans les années à venir. La médecine est un terrain très fertile, de l'imagerie à l'ADN, le transport des personnes et des biens connaîtra une révolution, et à peu près tous les emplois que nous connaissons bénéficieront des avancées de ces technologies.
Mais ces applications resteront très spécifiques à des domaines particuliers et ne couvriront jamais toute l'étendue de notre propre intelligence. Elles n’inventeront rien de nouveau et ne créeront rien qui n'ait jamais été vu ou imaginé par un humain auparavant. La machine reconnaît, l'être humain continuera à découvrir.