L'intelligence artificielle générative (IAG) se distingue comme une révolution technologique capable de transformer radicalement divers secteurs, y compris celui de l'éducation, en réalisant des progrès considérables de mois en mois. Capable de produire du contenu textuel, visuel, et audio d'une manière qui était encore impensable il y a seulement deux ans, l'IAG entraîne la redéfinition les approches traditionnelles d'apprentissage et d'enseignement.
Face à cette avancée, le monde de l'enseignement (supérieur) se trouve à un carrefour. L'adoption de l'IAG par les étudiants dans leur parcours d'apprentissage offre des perspectives enthousiasmantes de personnalisation et d'efficacité pédagogique, mais soulève également des questions éthiques et pratiques d'envergure. Comment les étudiants et les institutions peuvent-ils naviguer dans cette nouvelle ère d'apprentissage assisté par IA ? Quels sont les potentiels et les défis à anticiper ?
L’IA générative vient questionner le sens des devoirs
C’est surtout la question du sens des devoirs qui est posée par l’IA ! Le monde de l’enseignement est-il prêt pour la « révolution IA » autour des devoirs ? A cette question, la réponse est toute trouvée ! NON, toujours pas ! Ni les parents, ni les enseignants ne sont réellement prêts… car beaucoup ignorent encore la réelle capacité de ces outils (il y a beaucoup de raccourcis dans les médias) et je n’ai vu aucune statistique sur l’usage réel des IA génératives chez les 9-25 ans… difficile de prédire donc ce qui va se passer quantitativement.
Est-ce que cela sera la fin des devoirs à cause de l’IA ? Non ! Les élèves « tricheront » avec l’IA. Pour une raison simple c’est qu’ils vont chercher à maximiser leur efficacité en diminuant le temps passé à faire un devoir pour en maximiser la note, surtout si le travail est dénué de sens selon eux.
C’est ici un bénéfice de court terme qui est recherché : l’obtention d’une note « correcte » au regard d’un temps minimal passé à l’obtenir. Cela commencera probablement assez tôt car 90% des 12-17 ans ont accès à un ordinateur à leur domicile et que neuf ans et 9 mois, est l’âge moyen d’obtention du premier téléphone portable. Aujourd’hui, près d’un enfant sur huit entre 7 et 10 ans est déjà équipé, deux enfants sur 3 dans la tranche d’âge 11 – 14 ans (Médiamétrie, 2020). En parallèle de l’équipement hardware, nécessaire pour y accéder, les outils d’IA sont quant à eux largement accessibles, et souvent gratuits pour des premiers usages : Claude AI, Google Gemini, ChatGPT (en version 3.5), Bing Chat, etc.
Ma lecture, volontairement optimiste, c’est que finalement au royaume de la triche déjà en place (mais non réellement contrôlée), compte tenu de la gratuité de l’accès aux outils d’IA, il va finalement y avoir une forme de « justice sociale » avec un accès large et vaste à une aide aux devoirs pour tous.
C’est la vision de la Khan Academy d’ailleurs : nul besoin d’informatique complexe, un simple téléphone portable suffit pour accéder en langage naturel à une IA générative d’assez bon niveau pour proposer des réponses aux devoirs… Cette lecture est intéressante pour peu qu’il y ait une information partagée sur les possibilités d’accéder aux IA pour les devoirs, et surtout des limites des IA (car le copier-coller reste particulièrement dangereux compte tenu des hallucinations et des biais inhérents à ces outils).
Par ailleurs, les enfants, dans leurs outils du quotidien intègrent déjà l’IA (Canva qui est beaucoup utilisé dès le Collège) et les enfants commenceront aussi à intégrer l’IA dans tout ce qu’ils font… dans un futur proche, dialoguer (et apprendre) en collaboration avec une IA va devenir la norme. Amenant finalement rapidement les enfants à poser LA question à leurs enseignants : les élèves / étudiants voudront comprendre pourquoi ils font des devoirs qui semblent obsolètes à cause de l’IA. La question du sens même des devoirs va être posée.
Transformer l’apprentissage plutôt que d’interdire ou détecter l’utilisation de l’IA
Pour moi, le principal moteur de l’adoption d’outil de détection IA est le souhait de continuer à « faire comme si de rien n’était » et de limiter/éviter une autre transformation de l’expérience d’apprentissage (qui arrive tellement vite après la période de Covid-19). S’il est possible de prouver l’utilisation de l’IA générative par les élèves ou les étudiants, il sera alors possible d’en interdire purement et simplement l’utilisation. C’est pour moi l’une des plus grandes erreurs qu’un établissement d’enseignement (supérieur) puisse commettre, car cette technologie façonne déjà le travail de millions de personnes et notre lien à l’information !
Les algorithmes des détecteurs d’IA évaluent la « perplexité » d’un texte, qui mesure le degré de surprise des mots choisis. Les mots anglais courants font baisser le score de perplexité, ce qui fait qu’un texte est susceptible d’être signalé comme étant généré par une IA. À l’inverse, les mots complexes ou plus fantaisistes donnent lieu à un score de perplexité plus élevé, ce qui permet de classer un texte comme étant écrit par un humain. Ces outils comportent des biais : les personnes dont l’anglais n’est pas la langue maternelle, qui utilisent souvent des mots simples, peuvent voir leur travail signalé à tort comme étant créé par l’IA en raison de ce mécanisme.
Les faux positifs des détecteurs d’IA peuvent avoir un impact négatif sur la santé mentale des élèves en provoquant un stress excessif, de l’anxiété et de la démotivation. Ils peuvent se sentir injustement jugés ou se méfier, ce qui peut éroder leur confiance en eux et leur engagement dans le processus éducatif.
Comment transformer l’apprentissage ?
Par exemple, à NEOMA Business School, notre approche « test & learn » (qui a été initiée 6 ans avant la publication de ChatGPT par OpenAI), a conduit à une exploration approfondie de cette technologie dans l’éducation à la fin de l’année 2022. Début 2023, un groupe de travail à 360° a été formé pour aligner la vision stratégique de l’école sur les capacités d’IA générative et pour aborder les changements opérationnels. Ce groupe, composé de différentes directions, visait à équilibrer l’usage de la technologie et l’intelligence humaine, en permettant aux étudiants d’utiliser intelligemment des outils d’IA dans leurs enseignements.
Cette initiative a également impliqué une évaluation complète du « potentiel de GPT-isation » des évaluations au sein de l’école, garantissant une approche bien équilibrée et une refonte des évaluations lorsque cela s’est avéré nécessaire.
Enfin, nous avons formé nos concepteurs pédagogiques et nos enseignants en organisant plusieurs conférences, ateliers et des sessions de formation obligatoire sur l’impact de l’IA dans la pédagogie. Les étudiants sont également concernés puisque l’ensemble de notre communauté de 10 000 étudiants a accès à un cours en ligne dédié et badgé sur l’IA générative et l’art de l’ingénierie du prompt. L’ensemble de cette démarche a d’ailleurs été primée par l’AACSB, organisme international d’accréditation, en février 2024.
Je suggère donc de considérer les résultats positifs potentiels de
l’utilisation de l’IA et de l’IA générative dans
l’éducation. Ces technologies peuvent améliorer considérablement la
qualité de l’enseignement en proposant de nouvelles
méthodes d’enseignement, plus adaptées et plus précises, et en rendant
le travail universitaire plus précis, plus
concret, plus inclusif et plus innovant.
Enfin, ces technologies peuvent catalyser l’innovation éducative en
encourageant le développement et la mise en œuvre de
nouvelles méthodologies d’enseignement et d’évaluation, augmentant ainsi
potentiellement la qualité, l’inclusivité et
l’efficacité des formations.