Publication 21 décembre 2023

L’intelligence artificielle au service de l’éducation, avec Franck Bodin et Raphaël Doan

Respectivement Directeur de l'Atelier Canopé 93, et historien/agrégé de lettres classiques

D’un livre sur la Rome antique écrit avec ChatGPT aux débats sur nos compétences et intelligences, il n’y a qu’un pas. Quels enjeux les outils d'intelligence artificielle (IA) soulèvent-ils vis-à-vis de nos pratiques éducatives ? L’utilisation de l’IA générative peut-elle être un moyen de donner le goût de l’écriture ? De changer notre façon d’apprendre à l’école ? Comment s’approprier ce compagnonnage ? En marge de la 48ème édition du cycle de rencontres "Aux sources du numérique" (ASDN), Raphaël Doan et Franck Bodin ont répondu à nos questions.

Comment collaborer au mieux avec la machine ?

Raphaël Doan (RD) : Dans le cas des modèles de langage, c’est paradoxal. D’un côté, il faut toujours se souvenir que ce n’est qu’une machine, et non un humain, et qu’elle ne « pense » ou en tout cas qu’elle n’écrit pas comme nous. Sa réponse ne fera que compléter le texte commencé par la question qu’on lui pose. Il faut donc lui poser les questions ou lui donner les consignes les plus détaillées possibles, et les plus proches du ton ou du registre que l’on veut obtenir.

Franck Bodin (FB) : C’est en effet une interaction spécifique, possiblement déroutante : la machine génère du langage sans réelle pensée. Il est important d’apprendre comment elle fonctionne, d’anticiper ses réponses qui comportent toujours une part d’aléatoire. Cela implique un processus itératif qui exige de la précision et de la clarté dans les formulations, de fournir des éléments de contexte pour améliorer la qualité des réponses. Il est également utile de récompenser la machine tout en la sollicitant pour ce qu’elle sait faire. Les modèles de langage restent des intelligences artificielles étroites programmées pour produire une langue, du code, dans une forme correcte.

Quels risques ces technologies peuvent-elles faire apparaître et comment y répondre ?

RD : Je ne crois pas vraiment aux risques existentiels qui agitent certains autour d’une machine qui se rebellerait contre l’humanité, ni aux craintes relatives à la désinformation massive que permettrait l’intelligence artificielle générative. Certes, il est devenu plus simple de produire de fausses images ou des textes mensongers, mais on ne peut pas dire qu’internet connaissait une pénurie de faux contenus jusqu’ici. Ce n’est donc pas un changement si radical.

En revanche, je vois deux risques liés à l’éducation et à la culture. Le premier, c’est qu’à force de déléguer à l’IA les tâches de lecture et d’écriture, nous devenions de moins en moins capables de réfléchir, puisque s’entraîner à écrire c’est s’entraîner à penser. L’autre risque, c’est que la possibilité de créer des médias à volonté, adaptés aux goûts de chaque personne, contribue à une parcellisation croissante de nos références culturelles. Peut-être que demain plus personne ne verra le même film ou la même série, ce qui aurait forcément des conséquences sur nos liens sociaux. Je n’en suis en réalité pas certain, car il se peut que justement nous préférions voir des contenus moins personnalisés pour le plaisir de les partager avec d’autres ; mais c’est un risque à envisager.

FB : Le numérique, et donc l’IA, peuvent être à la fois une solution et un problème, c’est-à-dire des pharmakon. On pointe généralement la mésinformation due à la génération de contenus à grande échelle, les effets négatifs de la délégation de tâches intellectuelles à la machine, les impacts possiblement défavorables sur les emplois et nos démocraties, etc. Cependant, chaque phénomène a son pendant positif : les IA renforcent les capacités scientifiques grâce à une puissance de calcul accrue, enrichissent les compétences humaines par une utilisation critique de la machine, créent de nouveaux emplois et stimulent le besoin de débats politiques pour intégrer ces changements dans notre vie commune.

Franck Bodin,

Directeur de l'Atelier Canopé 93

"Il est essentiel de ne pas succomber à une fascination aveugle pour les avancées technologiques ni de prendre une position trop pessimiste. Un travail de pédagogie autour des IA est nécessaire. Pour faire face à ces défis éducatifs, les enseignants doivent être formés à ces technologies et cela passe par un apprentissage pratique. Il est également crucial d'intégrer la perspective des humanités numériques à ce travail, en mobilisant un esprit critique et en tissant du sens entre les connaissances académiques et la manière dont les bouleversements technologiques les transforment".

Pensez-vous que l’utilisation de l’IA générative puisse être un moyen de donner le goût de l’écriture ? De changer notre façon d’apprendre à l’école ?

RD : D’abord, il est clair que l’IA générative n’est pas une panacée, ni un outil appelé à remplacer l’école. Mais il est clair aussi que c’est un outil auquel l’école doit prêter attention, ne serait-ce que parce que les élèves s’en servent pour beaucoup déjà. Cela peut servir aux professeurs, pour les aider à simplifier des concepts ou des problèmes, à imaginer des questions, à adapter un cours au niveau spécifique d’un élève, bref pour les aider à transformer un matériel de cours et à l’ajuster au besoin particulier d’une classe ou d’un individu. Pour les élèves, les outils actuels peuvent servir de “précepteur virtuel” – et être assez bons dans cet exercice -, mais il faut bien sûr avoir les bonnes clés de compréhension et d’analyse critique pour ce faire. C’est en théorie envisageable dans toutes les matières et fonctionnerait particulièrement bien pour les langues : imaginons disposer d’un partenaire de conversation bilingue et systématiquement accessible, capable de s’adapter au niveau de l’élève.

FB : Travailler avec les IA génératives, en particulier les modèles de langage et les assistants conversationnels, demande de mobiliser des compétences de langage et d’écriture. Les IA sont patientes et neutres dans leurs réponses, ce qui en fait de bons agents pour tester et évaluer nos capacités rédactionnelles. Par exemple, une IA produisant des images peut fournir une représentation explicite de ma description, m’offrant une opportunité de réfléchir au choix du lexique. Certains enseignants se lancent dans ces explorations, tandis que d’autres profitent des capacités de la machine à générer du texte pour travailler sur des écrits intermédiaires, comme les phases du brouillon. Certains élèves peuvent trouver en l’IA un outil rassurant, leur permettant de dépasser leurs limites et leurs hésitations à communiquer un texte en raison d’une orthographe ou d’une syntaxe incertaine. Ici, l’IA peut être vectrice d’égalité des chances.

Quant à l’idée que les IA peuvent changer notre façon d’apprendre, c’est certain. La clé réside dans l’adoption d’une relation exigeante avec l’IA, ne la considérant pas simplement comme une exécutante de tâches d’écriture, mais plutôt comme un moyen de tester nos connaissances, ou nos hypothèses et de confronter nos points de vue à des perspectives extérieures. Cela nécessite à la fois une posture réfléchie et une connaissance approfondie des potentiels de la machine. L’idée d’exploiter l’IA comme un partenaire cognitif est une piste intéressante, qui mobilise à la fois les savoirs et la maîtrise de la langue.

Comment l’utilisation de l’IA générative va-t-elle selon vous modifier les pratiques de création artistique et littéraire ? Demain, comment définira-t-on un “grand auteur” ou une intelligence ?

FB : Les avancées technologiques ne remplacent pas les techniques préexistantes ; elles inventent simplement de nouvelles formes. L’IA est un partenaire intéressant dans le travail d’écriture, mais elle reste un tiers algorithmique, mécanique pour certains, avec une tendance à la standardisation comme limite potentielle. Les auteurs trouveront probablement dans les modèles de langage un prolongement de leurs stylos ou claviers. Il ne faut pas oublier que l’IA ne produit rien par elle-même, elle recompose simplement des éléments du corpus sur lesquels elle est entraînée, sous l’impulsion de l’humain.

RD : D’abord, je pense qu’il y aura tout un spectre de création littéraire à partir des modèles de langage, entre les auteurs attachés au « fait main » et ceux qui ne procèderont que par manipulation de synthèse de texte. Ce qui est intéressant, c’est le fine-tuning, la capacité à réentraîner un modèle sur un style ou un contenu particulier. Cela permet à un écrivain de donner à la machine la possibilité d’écrire dans son propre style, et c’est extrêmement efficace. Peut-être qu’un jour une œuvre résidera non pas dans un texte définitif, mais dans un algorithme capable de produire un certain type de texte ! Ce ne serait pas incompatible avec la persistance de la littérature traditionnelle.

À titre d’exemple, j’ai pour ma part adopté une approche à la fois exploratoire et expérimentale. Les méthodes sont venues de deux limitations. La première était la taille du contexte : on ne peut pas faire entrer un livre entier dans le prompt donné à GPT-3 (le modèle que j’ai utilisé), et il ne peut pas lui-même produire plus que quelques paragraphes à la fois, avant d’oublier ce qui précédait. J’ai donc adopté une manière de travailler pyramidale, en lui faisant d’abord produire des idées générales, puis un plan de plus en plus détaillé, avant de rentrer dans le détail de chaque paragraphe et de chaque phrase. C’est un travail qui demande d’emblée une vision d’ensemble du livre et de son architecture, et qui demande aussi beaucoup de générations répétées avant de retenir celles qui me paraissaient pertinentes. La deuxième méthode visait à permettre au modèle d’imiter certains styles et certaines sources, grâce à ce qu’on appelle le « few shots learning » : donner au modèle deux ou trois exemples de ce qu’on cherche (par exemple un paragraphe dans le style de Pétrone) avant de lui dire de s’en inspirer pour un nouveau texte.

Raphaël Doan,

Historien et agrégé de lettres classiques, auteur de "Si Rome n'avait pas chuté"

"Ce qui m’intéresse, c’est la capacité des machines à réaliser des tâches que nous attribuions auparavant – peut-être à tort ! – à l'intelligence. Nous savons que notre propre intelligence ne fonctionne pas comme un modèle de langage – nous ne fonctionnons pas que par prédiction du morceau de mot suivant – mais c’est parfois vertigineux de constater que la prédiction du morceau de mot suivant arrive à écrire un poème ou rédiger une dissertation. Sur le fond du sujet du livre – l’impact de la technologie sur la société romaine antique –, le modèle de langage, probablement à cause de sa phase d’apprentissage renforcée par feedback humain, préfère les issues optimistes et harmonieuses. Parfois, je l’ai forcé à imaginer des développements tragiques, mais je l’ai aussi souvent laissé aller dans sa pente naturelle, car cela rejoignait des réflexions que j’avais moi-même".

VOIR LE REPLAY DE L'ASDN 48

ASDN #48 - "Si Rome n'avait pas chuté"

Sur le même sujet