Sophie Pène : Pour commencer les débats qui vont nourrir ces deux journées, l’idée est que cette première table ronde installe un vocabulaire commun, des préoccupations communes qui ont déjà été posées par l’intervention inaugurale de Catherine Mongenet, de très façon très complète, et que chacun des intervenants qui sont ici avec moi et qui vont se présenter vont commencer à installer avec vous. Dans cette table ronde on va commencer le partage des pratiques, le partage des questions et puis l’installation des bases qui vont nous mener jusqu’à des propositions, puisque ces deux journées, qui vont être très fertiles, ont pour but d’équiper l’ESR [Enseignement supérieur et recherche] pour mener cette traversée que Luc Julia a installée et puis, en même temps, en nous redonnant quelque confiance et quelques encouragements à ne pas être perdus dans cette accélération extrêmement brutale qui nous a pris un peu de cours au début.
Je présente rapidement les intervenants :
David Cassagne, président de FUN [France Université Numérique] [1], vice-président délégué au Numérique à l’Université de Montpellier et professeur de physique, ayant déjà une pratique pédagogique incluant les IA ;
Alain Goudey, directeur général NEOMA [2] qui s’est fait connaître, bien sûr, outre son parcours précédent, qui est maintenant notre héraut de l’intelligence artificielle, qu’on suit tous sur Twitter puisqu’il nous fait la veille, l’analyse et il extrait les informations qui peuvent intéresser la communauté ;
Vanda Luengo, chercheur au LIP6, professeure d’informatique et au laboratoire LIP6 Sorbonne Université [3] ;
Marc Oddon, vice-président formation continue, apprentissage et insertion professionnelle à l’Université Grenoble-Alpes, qui est aussi impliqué dans FUN [1], je crois.
Je vous donne la parole, peut-être, David, tu commences. Chacun de vous va se présenter un peu mieux et puis dire ce à quoi il tient et, en quelque sorte, quel mot clef, quel premier mot de vocabulaire ou quelle notion importante il met à votre disposition, dans la suite de ce qu’a fait Luc Julia, pour commencer à discuter ensemble.
David Cassagne : Déjà, je vais parler plus, finalement, avec ma casquette de vice-président de l’Université de Montpellier et également en tant que physicien, enseignant, puisque l’intelligence artificielle est un sujet dont on est amené à s’emparer dans toutes les disciplines. Dans le cas des enseignements de master en physique, depuis deux ans déjà, on a introduit des enseignements d’introduction d’intelligence artificielle pour la physique.
Pour venir sur les sujets qui m’interpellent, surtout dans l’accélération que j’ai pu voir au cours des dernières années, c’est la dimension d’émergence. En physique, un physicien célèbre, Philip Anderson, prix Nobel de physique en 1977, a eu un article célèbre qui était intitulé « More is Different » [4]. L’idée c’est effectivement que quand on va être dans des systèmes dans lesquels on va augmenter fortement le nombre de constituants, on peut avoir des comportements qui sont des comportements émergents. Actuellement en particulier, dans les grands modèles de langage comme ChatGPT [5] où, comme ça a été dit, pour la version 3.5 on est avec 175 milliards de paramètres, on constate qu’il va y avoir des capacités émergentes.
On n’est pas dans une émergence qui serait une intelligence artificielle générale, il faut être raisonnable par rapport à ça. Étant donné que, pour comprendre ces capacités émergentes, on ne peut pas se limiter simplement à comprendre les constituants élémentaires en particulier des réseaux de neurones qui sont constitués, ça veut dire qu’il y a une complexité plus importante, plus de difficultés à interpréter ce qui s’y passe et je pense que c’est quelque chose qui va poser des questions à la fois par rapport aux aspects d’explicabilité, même si, effectivement, c’est l’objectif, mais ça peut demander du temps. En physique, quand on a des phénomènes émergents, ça peut être compliqué pour pouvoir arriver à les comprendre, et aussi en termes de régulation.
Le deuxième aspect qui, pour moi, interpelle dans les outils des IA génératives, c’est le caractère non déterministe. C’est-à-dire que quand on est justement avec ChatGPT [5], un grand modèle de langage, il y a une prédiction statistique du mot suivant mais, en réalité, il y a un tirage aléatoire qui est effectué parmi ces mots avec une certaine pondération, c’est ce qui fait donc qu’à chaque fois que l’on va poser la même question on va avoir une réponse différente. Je pense que c’est quand même très différent des usages qu’on pouvait avoir auparavant en informatique de différents outils : quand on a un moteur de recherche, on peut lui poser plusieurs fois la même question, on va avoir la même réponse. Là non, à chaque fois on a quelque chose qui est différent et là aussi ça va interroger par rapport à des aspects d’explicabilité.
Ce sont, pour moi, les deux aspects qui sont effectivement les plus troublants dans ces nouveaux outils.
Alain Goudey : Merci. Très rapidement, Alain Goudey, directeur général adjoint en charge du numérique à NEOMA, que vous connaissez peut-être, une école de management qui fait partie des sept meilleures écoles de commerce en France. La spécificité de NEOMA c’est qu’on a l’innovation au cœur de notre stratégie et le sujet de l’IA est un sujet démesurément nouveau. Ce qui est intéressant, avec les effets de mode, c’est que tout le monde va dire ça, vous allez vous en rendre compte, on a tous un truc où on avait déjà l’IA depuis quelque temps.
En fait l’IA, ça a été rappelé par Luc Julia, c’est 1956, ce n’est pas un truc très nouveau. Avant les IA génératives, il y avait plein d’autres formes, plein d’autres outils et dans la pédagogie, tu en parleras je crois, il y a énormément de choses qu’on peut faire avec l’IA. Mais IA n’est pas égal à IA générative. L’IA générative est seulement une partie de ce plus grand ensemble que sont les IA, les intelligences artificielles. À l’intérieur de cette petite partie qu’on appelle IA génératives il y a les LLM, puisqu’on m’a demandé de parler de ce terme-là. LLM ça veut dire Large Langage Model. Les trois mots sont extrêmement importants.
Le premier mot c’est « large » et tu en as parlé avec le phénomène d’émergence. Qu’a-t-on fait ? On a modélisé, puisque, en fait, il y a un phénomène qu’on appelle tokenisation, en gros c’est l’extraction mathématique des textes qu’on a fait ingérer à ces large langage models, dont GPT 3.5 ou 4 sont un des milliers de modèles existant au monde aujourd’hui, il y en a beaucoup d’autres. Ne réduisez pas le sujet à ChatGPT [5], je peux en citer plein d’autres, des trucs dont vous n’avez peut-être pas encore entendu parler, durant la pause on parlait de modèles comme LLaMA [Large Language Model Meta AI] [6], comme Alpaca, comme Falcon [7] ; ces mots ne vous disent peut-être rien parce que ce n’est pas médiatisé, mais, en fait ils existent, ils sont extrêmement puissants.
Ce « large » est extrêmement important parce que, du coup, on a fait absorber en gros 50 millions de livres à l’IA, ce sont à peu près les chiffres qui circulent, ce sont effectivement des milliards de mots et on a extrait, comme ça, un modèle mathématique avec 175 milliards de paramètres à l’intérieur de ce modèle.
Le deuxième terme qui est extrêmement important, c’est « langage ». On se base sur des textes, ce que fait GPT, ce que fait Google Bard, ce que font les Falcon et autres : ils ont ingéré du texte et vont générer du texte, donc basé sur du langage.
Ce qui est important à avoir en tête quand on parle de langage, on parle forcément, finalement, d’une culture – parce que derrière une langue il y a une culture, c’est basique – et derrière cette culture, il y a une vision du monde. Là où je veux en venir, c’est qu’en fait dans tous les modèles larges, donc les LLM, on a forcément des notions de biais, ça a été évoqué tout à l’heure, mais on a aussi des biais qui peuvent être des biais implicites. Ce n’est pas parce qu’on va trier en disant « ça c’est une source sûre et là c’est une source qui dit que la Terre est plate, on sait que ce n’est pas vrai, donc on met de côté », même si vous ne mettez que des sources sûres, il y aura forcément des biais parce que, de toute façon, l’humain est pétri, rempli de biais pour comprendre le monde qui l’entoure. C’est important à comprendre parce que, du coup, derrière cette notion de langage, il y a forcément une vision du monde et forcément des biais liés à cette vision du monde.
Par rapport à la question qui était posée tout à l’heure : est-ce que ça serait pertinent qu’on ait un LLM français ou européen ?, je réponds deux fois oui. Le français n’est clairement pas la langue la moins parlée dans le monde, je crois que c’est la cinquième, de mémoire, quelque chose comme ça. Évidemment, à l’échelle de l’Europe avec 27 pays, 27 langues et 27 visions du monde, ce serait quand même une richesse extrêmement pertinente par rapport à un modèle beaucoup plus monolithique si on parle de celui de GPT 4 qui est entraîné sur des données principalement anglo-saxonnes avec tous les biais de la vision anglo-saxonne du monde. Le plus gros référentiel d’entraînement dans GPT c’est la base des brevets américains que Google indexe. C’est le deuxième terme, langage.
Le troisième terme, c’est « modèle ». Il faut intégrer que les outils dont on entend parler d’un point de vue médiatique, comme ChatGPT [5], comme Midjourney [8], sont en fait des outils de navigation à l’intérieur de ces modèles, je ne veux pas rentrer dans les notions d’espace latent, d’espace vectoriel multi-dimensions, mais, en gros, c’est ça le principe. En fait, quand on écrit un prompt, donc une consigne – je n’ai jamais trouvé de terme vraiment bien, je trouve que consigne ce n’est pas mal – pour une intelligence artificielle générative, en fait c’est le véhicule qui va permettre à l’outil de converger vers une réponse, statistiquement comme tu l’expliquais, cohérente, pas forcément signifiante et c’est là où est toute la nuance. Ces outils ne comprennent absolument rien à ce qu’on indique comme consigne, ils ne comprennent absolument rien à ce qu’ils fournissent comme résultat et derrière, effectivement, il n’y a pas une once d’intelligence, juste rien par rapport à ce qu’est l’intelligence humaine. Ce qui va faire, en fait, que ce résultat va converger vers quelque chose d’utilisable, c’est justement l’humain qui est en train de piloter cet outil. Quand vous entendez « l’IA va remplacer l’humain partout, tous les métiers, etc., », c’est fondamentalement faux. Ce sont les personnes qui savent utiliser ces outils qui vont peut-être, effectivement, remplacer des personnes qui finalement ne vont pas explorer. Et là on voit bien tout le challenge qui est devant nous en termes de formation.
Vanda Luengo : Bonjour. Je suis Vanda Luengo, chercheur au LIP6, mais surtout dans une équipe de recherche qui travaille sur l‘IA en éducation. L’IA en éducation ce n’est pas du tout ce dont on parle aujourd’hui, ce qui est à la mode, il y a peut-être un petit peu d’IA générative et peut-être qu’on va utiliser ce type de chose, mais la recherche dans notre domaine est assez différente. Je tenais quand même à expliquer un petit peu ce que nous faisons en IA en éducation.
C’est une communauté internationale. Il y a une conférence prévue qui s’appelle AIED [International Conference on Artificial Intelligence in Education], il y a bientôt la conférence qui a lieu au Japon tous les ans [9]. Au niveau français on a une communauté qui fait d’autres choses que de l’IA. À la conférence AIEH [10] la semaine prochaine à Brest, des chercheurs dans notre domaine vont présenter des articles sur l’IA en éducation.
C’est quoi l’IA en éducation ? En fait ce sont des IA, comme on disait tout à l’heure, qui ne se dédient qu’à un seul type de connaissance, un seul type d’expertise.
Dans l’IA éducation, il y a trois ou quatre types d’expertise qui nous intéressent, la premier c’est l’apprenant. On va donc beaucoup travailler sur modéliser cet apprenant, modéliser les erreurs, diagnostiquer les erreurs, diagnostiquer les métaconnaissances, les modèles. Il y a, par exemple, des outils de prédiction d’abandon des MOOC [Massive Open Online Course] qui fonctionnent très bien, qui vont dire « il va abandonner le MOOC », peut-être pas liés aux connaissances, qui sont des articles qui ont été publiés il y a quatre ou cinq ans quand il y avait des conférences sur les MOOC. C’est le type de recherche typique dans notre domaine. On va déjà modéliser l’apprenant. On va essayer de comprendre certains phénomènes sans les millions et les millions de données, parce que les élèves – les chats, vous voyez déjà –, vous imaginez les élèves du primaire jusqu’à l’université, très créatifs, avec beaucoup d’erreurs auxquelles on ne s’attendait pas, etc. ; c‘est déjà un domaine, le côté modélisation de l’apprenant. Avec les systèmes experts on faisait déjà ce travail de modéliser. Les données nous ont amené une richesse différente, donc on modélise les apprenants.
On modélise les connaissances à enseigner. On va chercher à modéliser, par exemple, la résolution des problèmes en géométrie, il y a des domaines beaucoup plus difficiles qu’on appelle mal définis. J’avais beaucoup travaillé, quand j’étais à Grenoble, en chirurgie orthopédique. Donc modéliser ces connaissances, raisonner sur ces connaissances pour pouvoir, après, expliquer à l’apprenant, en tout cas au chirurgien, comment faire les bons gestes, pourquoi ils sont bons, etc. C’est aussi une dimension à laquelle on s’intéresse : modéliser les connaissances à enseigner.
Le troisième, en anglais on dit « modèle pédagogique », qui est un peu maladroit, parce qu’en France on fait la différence entre la didactique, la pédagogie, etc., c’est donc cet aspect-là : comment modéliser le tuteur qui a des connaissances d’enseignement. Donc comment on va adapter, à quel moment on va faire un feed-back, à quel moment on va interagir ou pas, laisser l’élève dans sa tâche ? Ce sont encore des chercheurs qui travaillent actuellement sur ces données-là, d’ailleurs certains ont déjà commencé et ont déjà publié sur l’utilisation des aspects génératifs de ChatGPT [5] comme un outil, comme un marteau pour produire les bons feed-back. On demande à ChatGPT des petites choses, mais après le côté intelligent dans ce domaine n’est pas dans ChatGPT, c’est plutôt on comprend ce qu’a fait l’apprenant, on comprend l’erreur, on diagnostique et on essaie de s’adapter par un feed-back immédiat, différé, etc.
Enfin, un dernier qu’on appelle interaction, c’est, comme on disait tout à l’heure, comment savoir interagir avec l’élève, l’apprenant, celui qui est en train de se former, pour lui donner la bonne forme et fond du feed-back.
Toutes ces recherches existent depuis vraiment plus de 30 ou 40 ans et avancent beaucoup moins rapidement que ChatCPT. On n’a pas tous ces millions de données, on n’est pas non plus dans la lumière, et si on n’est pas dans la lumière, on n’a pas les budgets. Il y a en effet des recherches depuis assez longtemps sur les aspects collaboratifs aussi, comment comprendre le collaboratif, comment soutenir les interactions entre apprenants.
Il y a donc des tonnes de recherche dans ce domaine. Je tenais à souligner que c’est un domaine assez intéressant, si vous ça intéresse je pourrai après vous donner des pointeurs.
Marc Oddon : Bonjour à toutes et à tous. Je suis très content d’être ici parce que je viens d’un territoire un peu excentré, Grenoble, où l’informatique a une histoire, une grande histoire liée à la recherche, liée au développement. Je suis un passionné de la formation tout au long de la vie et actuellement j’ai une casquette supplémentaire, je suis aussi président du comité de suivi de licence/master/doctorat qui a, en France, la partie de la discussion sur les fiches RNCP [Registre National de la Certification Professionnelle] entre autres, la cohérence des formations et les contenus. Bien entendu, on a parlé des outils. Je trouve très intéressant de se poser la question. Parfois j’ai l’impression qu’on se dit « on a fabriqué ou outil, mais à quoi peut-il servir ? »
On se rend compte que dans notre communauté universitaire, dans le lien qu’on a avec les entreprises sur le territoire, ce sujet vient, et j’aime bien le titre de notre table ronde « changement de paradigme ». Platon dit que le paradigme consiste à examiner un exemple concret et à en tirer des conséquences plus larges.
Je tiens à dire que ce qui était, on va dire, assez confidentiel ou peut-être laissait rêver est arrivé, par des exemples concrets, en pleine force au milieu de nos universités. Sur Grenoble on a aussi un Institut MIAI [Multidisciplinary Institute in Artificial Intelligence] [11], on a aussi un projet de plan d’investissement d’avenir avec EIFELIA et aujourd’hui on s’est posé la question en disant : former qui ? À quel niveau ? Comment ? Quels sont les besoins aujourd’hui pour que notre pays, nos entreprises, nos universités puissent ne pas rater le train ? Ça a été dit tout à l’heure, j’ai beaucoup apprécié : arrêtez de faire de l’autoflagellation. On a en France des compétences, un niveau de recherche et de connaissance de ces domaines-là qui est extraordinaire. La question c’est comment on va réussir, on va accompagner cette transformation pour que les objectifs de formation de nos diplômes prennent en compte on va dire le capital humain, ça nous va bien pour les universités, peut-être mettre en opposition le capital humain et le capital signal, c’est-à-dire comment on va développer les compétences transversales, transférables, les soft skills comme on les appelle parfois sur certaines choses, je ne vais pas rentrer dans le détail, pour qu’on puisse s’adapter à la professionnalisation de demain. Voilà les enjeux.
Sophie Pène : Nous voilà avec une première vision de notre territoire familier, de l’ESR, avec un scientifique face à des transformations de sa pratique pédagogique, une vision générale qui fait qu’il y a dans l’ESR une activité de veille, de partage, de vulgarisation qui fait que beaucoup de gens sont d’ores et déjà sensibilisés avec leur culture scientifique, avec leurs pratiques, avec le fait qu’ils ont déjà expérimenté énormément de requêtes, qu’ils ont joué et qu’en jouant, en regardant, en les comparant, on a déjà amorcé des compétences. Vanda Luengo a raison de rappeler qu’il y a une recherche solide qui n’est peut-être pas sur ce même rythme mais qui va être le socle à partir duquel on peut travailler aujourd’hui. Et puis les préoccupations morales, politiques, citoyennes de nos universités pour être en phase avec les besoins humains, les besoins des territoires.
Néanmoins, on est dans une situation où là pour la première fois on attendait depuis longtemps, Vanda, tes assistants pédagogiques pour l’apprentissage et vlan ! Voilà un simili assistant pédagogique qui nous arrive, où l’apprenant nous dit « je n’ai pas besoin d’être modélisé, ça y est, j’ai mon assistant, je te remercie, je l’ai en main, il est comme un smartphone, en quelque sorte, et je vais aller très vite ».
Dans ce deuxième tour de notre discussion, on va se mettre dans la place où on voit d’une part qu’on a des professeurs qui sont quand même possiblement déboussolés par le fait que les exercices qu’ils donnent peuvent donner lieu à des générations automatiques de propositions avec une falsifiabilité, un caractère éventuellement mensonger, plagiaire en quelque sorte. On est en train de brutaliser la convention ordinaire qui est « je ne copie pas, j’apprends par moi-même, j’utilise des patterns qui sont j’imite d’abord ce que le prof m’a dit et puis je comprends que derrière la mécanique il y a de l’intelligence et c’est comme ça que je me forme ». Ce n’est pas la première fois avec Internet, mais là, tout d’un coup, on a un résultat immédiat qui est un peu différent de la requête à Wikipédia, de la recherche dans Wikipédia ou de la recherche dans les sources.
Toute la question forte dans nos universités : la fiabilité des sources, la stabilité d’un résultat – le résultat c’est clef pour nous –, eh bien tout d’un coup on a des gammes de résultats, il faut remonter à la source du process. On a beaucoup de choses qui se passent comme ça. On va maintenant discuter ensemble sur ce qui se passe dans la classe, d’une part en termes d’une nouvelle forme de conduite de la classe y compris à l’université au sens où nos étudiants s’équipent différemment, vont être équipés différemment quoi qu’on en dise puisque cet outil est arrivé directement au grand public, en plus il n’était pas fait pour l’apprentissage, mais il se révèle, comme parfois tant d’outils numériques, plus adapté, plus affordant que des outils qui sont préparés de longue date. Que va-t-on faire pédagogiquement ? En quoi y a-t-il des choses à recaler tout de suite dans la pratique pédagogique ? En quoi y a-t-il des choses nouvelles à entrer dans les formations et à apprendre ? En quoi, aussi, ça peut nous aider à réaliser mieux nos missions et à être mieux encore au service des savoirs et de la réussite des étudiants ? David.
David Cassagne : Ça pose effectivement des questions. La première réaction de la communauté a été la question de la triche dans les évaluations. On n’est pas dans le plagiat, on n’est pas dans quelque chose qu’on pourrait identifier comme du plagiat puisqu’on ne peut pas attribuer le travail à une personne. On est plus dans quelque chose qui s’apparente à la situation d’un étudiant qui se serait fait aider par un copain, par son frère, sa sœur, avec, en plus, une difficulté pour détecter la chose. On en a parlé, il y a des centaines de modèles différents et il n’y a pas d’outil fiable pour détecter.
Cela a été le sujet qui a beaucoup interrogé, les évaluations, mais les évaluations sont des choses qu’on peut transformer. Pour ma part j’enseigne des aspects qui sont liés à la physique numérique, j’ai pris un examen, j’ai regardé : sur les quatre exercices que j’avais donnés l’an dernier, ChatGPT [5] faisait l’un des quatre très bien. Comme, en plus, c’est un examen en salle informatique, avec accès à Internet, il fallait changer cet exercice. On pouvait le changer.
Après, je pense qu’il faut faire la part des choses. Toutes les modalités d’évaluation ne vont pas être impactées. Il y a toujours des évaluations qui se font avec des devoirs sur table, il y a toujours des évaluations qui se font avec des oraux.
Il y a donc des aspects d’adaptation, mais, après, il faut voir aussi tout le bénéfice que peuvent apporter ces outils, puisque ça peut être des instruments pour arriver à avoir un assistant pour créer des quiz, un assistant pour créer des feed-back, un assistant pour créer des contenus et ça peut être aussi utilisé dans les activités avec des apprenants.
C’est un de mes sujets en tant que vice-président et ça fait un moment que je m’intéresse à ce sujet du numérique au service de la pédagogie, je pense que sur le numérique au service de la pédagogie donne une nouvelle dimension dans les possibilités offertes.
Je pense qu’il va y avoir, avec ces outils, une dimension de transformation sur la forme, mais aussi sur le fond : sur la forme, c’est-à-dire sur la façon de faire les enseignements, mais aussi sur le fond parce qu’on ne va pas enseigner la même chose à partir du moment où on a ces différents outils, de la même façon que quand il y a eu la calculatrice on n’a plus enseigné de la même manière. C’est donc une transformation au niveau de l’enseignant. Changement de paradigme oui sur la façon dont on va notamment organiser des activités, peut-être plus développer l’esprit critique chez les étudiants.
C’est aussi un changement fort pour les apprenants, pour les étudiants, parce que c’est aussi un changement dans la façon dont ils vont accéder à l’information. On voit bien que les moteurs de recherche vont être directement impactés, on peut citer l’alerte rouge qu’il y a eu chez Google avec l’arrivée de ChatGPT [5] où ils ont dit « il faut absolument arriver à transformer les choses et prendre cela en compte ». Donc changement pour les étudiants dans la façon dont ils vont rechercher de l’information, dans la façon dont ils vont faire leurs productions avec également la possibilité d’avoir des tuteurs basés sur ces outils.
Il faut quand même toujours prendre des précautions. On a parlé des hallucinations, des biais. C’est pour cela que je dis qu’il faut faire attention à la façon dont on utilise ces choses-là, ne pas prendre ça pour des moteurs de recherche. Par contre, la façon dont on va les utiliser de manière à apporter des choses positives, c’est-à-dire résumer, créer et ainsi de suite, ce sont des choses auxquelles les enseignants doivent être formés, les étudiants doivent être formés. Il y a, à mon avis, tout un travail là-dessus qui est assez passionnant.
Sophie Pène : Je voudrais te poser une petite question pour approfondir, vérifier un point. Beaucoup de pratiques cognitives, indépendamment des modélisations, restent invisibles et sont, en quelque sorte, implicites, spontanées, secrètes, laissent des marques quand il y a des brouillons, des prises de notes, mais il n’y a pas toujours des traces. Là on voit bien que si on veut que les professeurs puissent dialoguer de façon transparente avec leurs étudiants, il va falloir qu’on les mette au jour et qu’on accepte de les partager, ça veut dire qu’il faut qu’il y ait un principe de morale, un principe de confiance. Il y a aussi une relation qui est d’emblée modifiée parce qu’il faut que les étudiants acceptent la proposition qu’on leur fait, c’est-à-dire de raconter, par exemple, les prompts qu’ils ont utilisés.
Est-ce qu’il n’y a pas aussi, possiblement, un nouveau contrat pédagogique, une nouvelle confiance à établir pour qu’on partage autre chose que le résultat ?
David Cassagne : Dans la façon dont on peut transformer les évaluations, il y a notamment leur demander plus de traces et aussi exprimer la démarche qu’ils ont eue au travers de leur travail plutôt que de se limiter simplement à un rendu, c’est effectivement quelque chose d’important.
Après, le point qu’il y a aussi : s’il y a quelque chose qui est rendu à l’écrit où effectivement on aura du mal à faire la part des choses entre la part du travail personnel et concrètement ce qui a été vraiment appris par les étudiants, des mécanismes au travers de l’oral et d’autres mécanismes peuvent intervenir.
Une chose dont je n’ai pas parlé, à mon avis importante, au niveau des étudiants il y a aussi des remises en question fortes qui peuvent apparaître par rapport à la motivation qu’il y a à apprendre et par rapport aux tâches qu’on va leur donner. Je pense que ça va aussi nous inviter à changer nos pratiques parce que si on leur demande des choses pour lesquelles ils ont l’impression que, finalement, on est face à ce que j’appellerais des évaluations artificielles, des évaluations qui ne correspondent pas à ce qu’est la vraie vie et la vraie vie va être une vie où on aura la possibilité d’utiliser des intelligences artificielles génératives, on risque de se retrouver aussi en difficulté.
Donc avoir peut-être des évaluations plus authentiques, plus orientées sur les compétences.
Alain Goudey : Je vais y aller un peu cash. Je pense que ce type d’outil réinterroge en profondeur notre rôle de professeur, notre rôle d’établissement de formation, d’université, d’école et à tous les niveaux, pas que dans le supérieur, le constat est vrai aussi au niveau des écoles primaires, collèges et lycées. Pourquoi ? J’avais ce débat-là sur une autre conférence : quel est le rôle du professeur ? Quelqu’un a dit : « En fait, je fais des diaporamas et après je fais mon cours. » Je dis : « Moi pas, je ne considère pas que ça soit mon rôle de faire des diaporamas et de réciter mon cours comme je l’ai déjà peut-être pratiqué à une époque. Ce n’est peut-être pas non plus ce qu’attend un étudiant ou un élève ». Je crois profondément que notre rôle de professeur c’est de changer le regard de nos étudiants sur le monde qui les entoure. Ça fait un peu philo, mais je pense sincèrement que c’est ça notre job. Et on le fait à travers quoi ? On le fait évidemment à travers la recherche qu’on produit, qui nous permet de produire de la connaissance et non pas du contenu. Une IA générative génère du contenu et non pas de la connaissance. J’insiste sur ces termes-là parce que c’est extrêmement important.
On va pouvoir également changer le regard de nos étudiants sur le monde qui les entoure grâce à notre expérience, l’ensemble des échanges qu’on peut avoir avec beaucoup de personnes dans les pratiques qu’on a, dans ce type de conférence aujourd’hui, dans les lectures qu’on peut faire, dans les connexions qu’on peut faire entre des sujets qui ne sont peut-être pas liés au départ les uns aux autres mais qui, mis ensemble, font qu’on va nous-même se forger un regard sur le monde et pouvoir transmettre cela.
Vous voyez quand même toutes les nuances qu’il y a par rapport à notre rôle et je pense qu’il y a beaucoup de visions qui peuvent différer de celle-là qui est un peu idéale, en tout cas idéaliste, de notre rôle de professeur.
Le deuxième élément. Très vite, quand on m’a interrogé sur l’histoire des évaluations, moi aussi j’ai dit « si un outil comme ChatGT réussit l’examen, franchement il faut changer l’examen ! ». Je pense vraiment que c’est ce qu’il faut faire et ta démarche est la bonne, je crois qu’il n’y a pas 10 000 manières de faire. Vous prenez les évaluations que vous faites avec vos étudiants, vous regardez dans un ou deux outils d’IA générative si l’outil est capable de répondre et si c’est capable, changez l’examen ! Il y a plein de manières de le faire.
En revanche, je crois qu’il faut qu’on s’astreigne aussi collectivement à être très précis sur ce qu’on dit. GPT 3.5, novembre 2022, n’est pas la même chose que chose que GPT 4, mars 2023. Et GPT 4, avec les plugins depuis fin avril 2023, n’est pas la même chose que GPT 4 sans les plugins de mars 2023. Pourquoi je vous dis cela ? Parce que – et ça légitime un peu ma démarche de veille et d’essayer de communiquer sur tous ces trucs-là – ça bouge très vite et c’est important d’avoir cet élément de précision. Ce qui était vrai par exemple en novembre 2022 où on disait « de toute façon le truc n’est pas capable de chercher sur Internet, les données datent déjà de novembre 2021 », du coup en termes d’évaluation c’était facile, vous faisiez un truc sur quelque chose après novembre 2021, vous aviez plié le jeu et GPT 3.5 ne pouvait pas répondre, eh bien ce n’est plus vrai aujourd’hui !
Parfois, on me pose la question de comment j’arrive à soutenir ce rythme-là de diffusion sur les réseaux sociaux. Je vous donne la réponse : j’utilise de l’IA tant pour la veille que pour l’écriture. Le gain de temps est à peu près de l’ordre de 30 à 50 %, je l’ai mesuré, ce ne sont pas des chiffres que j’ai vu passer, j’ai pris mon petit chronomètre, j’ai regardé combien de temps je mettais à écrire avant et combien de temps je mets à écrire maintenant.
C’est vrai que c’est important de se poser ces questions-là sur l’évaluation. Et je crois sincèrement que ce qui m’intéresse dans une évaluation ce n’est pas le résultat, je me fiche de la réponse, c’est le processus et j’espère que c’est aussi votre cas. C’est là où on va apporter justement de la valeur, pouvoir dire « là tu as abordé ce sujet comme cela, mais est-ce que tu as pensé à regarder sous un autre angle ? ». Avec une machine c’est plus compliqué d’adopter différents angles sur un même objet, ça se fait avec du prompt mais c’est déjà un peu plus compliqué et surtout, si vous adoptez des perspectives qui ne sont pas modélisées, la machine ne le fera pas. Encore une fois, il n’y a pas d’intelligence.
Je crois que ça vient vraiment interroger notre rôle, ça vient aussi interroger la posture de l’étudiant.
J’ai testé sur un cas d’enseignement à distance, ça va intéresser les collègues de FUN [1]. Que se passe-t-il quand on a un apprenant qui est à distance ? Il déroule son truc, généralement, quand c’est bien fait, il n’est pas trop en difficulté et arrive forcément le moment où il a une question. Quand il a une question, on fait tous la même chose : soit il y a un forum à disposition, soit il y a un outil collaboratif x, y, z, à disposition. L’étudiant pose sa question puis il attend une réponse. Là, deux cas de figure : on est dans un horaire d’ouverture, de journée, le professeur est disponible et il va répondre dans quelques minutes ; ou on est la nuit, en tout cas en soirée, voire la nuit très tard, et là le professeur dort, il a le droit aussi. Du coup la réponse arrive quelques heures après.
Qu’est-ce qu’apporte une IA générative ? Si la question était relativement simple, du coup l’IA générative est en capacité d’apporter une réponse et l’apprenant va continuer. On se rend compte que ça maximise l’engagement parce qu’il a sa réponse tout de suite. Peut-être pas parfaite, peut-être qu’elle peut être sujette à caution et à question, et c’est encore notre job de professeur de dire « OK, vous avez cet outil-là, vous avez une question que vous allez pouvoir lui poser, vous allez avoir une réponse instantanée, mais prenez aussi du recul », c’est ça l’esprit critique, la distanciation par rapport à une information, etc.
À partir du moment où on pilote ça, ça devient effectivement un outil extrêmement intéressant qui va aussi impacter directement la posture des apprenants.
Dernier point sur la partie établissement, là aussi je crois qu’en fait la difficulté de l’exercice c’est qu’on est pris de court, c’est une technologie ancienne mais qui déboule dans des usages grand public très rapidement. C’est un outil informatique, ce que je trouve fascinant, c’est que c’est un outil informatique qui se programme avec notre langage naturel et ça c’est très nouveau. Qui, du coup, est accessible à tout le monde, et là, cf. les questions d’équité parce que nos étudiants n’ont pas tous autour d’eux des parents, des frères et sœurs qui peuvent aider sur tel ou tel type d’exercice, eh bien là il y a un outil qu’on peut interroger et qui va peut-être permettre de débloquer la situation.
Je crois qu’il y a donc, ici aussi, un facteur extrêmement important de réflexion au niveau des organisations. La difficulté qu’on a c’est que ça va très vite et, finalement, il faut à la fois suivre ce rythme-là, expérimenter mais prendre du recul, poser un cadre qui peut bouger. C’est là où je crois sincèrement que nous avons un vrai enjeu d’intelligence collective sur cette thématique.
Sophie Pène : D’intelligence collective et puis de liberté, voire de libération pédagogique. Je pense que tous les professeurs n’utilisent le résultat que comme tenant lieu, c’est-à-dire qu’on s’intéresse tous au processus et on considère que le résultat est, en quelque sorte, la compression, la synthèse d’un processus parce qu’on est aussi dans un moment de massification. On va voir tout à l’heure que ça interpelle aussi l’organisation du temps de travail d’un enseignant et la responsabilité, ce que les établissements sont capables de faire pour aider cette nouvelle mutation.
Vanda, sur cette question des nouveaux exercices, de comment tu travailles avec tes étudiants et de la liberté pédagogique peut-être nouvelle que vont te donner aussi ces outils dans la variété et autre, comment vois-tu les choses ?
Vanda Luengo : À la Sorbonne et, je pense, dans toutes les universités, la liberté académique est fondamentale pour chaque enseignant – peut-être pas à Sciences Po parce qu’on a interdit ChatGPT [5] –, en tout cas dans nos universités c’est une valeur, c’est même parfois une difficulté. Avant j’étais directrice du Centre d’innovation pédagogique et on est face à des enseignants qui veulent travailler à la craie avec des tableaux, rien d’autre et répéter les connaissances, c’est la liberté académique. D’autres veulent innover à une vitesse démesurée ; peut-être ne faut-il pas aller si vite et comprendre un petit peu mieux le phénomène. Je pense qu’il faut vraiment respecter cette liberté à tous les niveaux et des deux côtés.
Le problème c’est que les étudiants doivent aussi effectivement changer de posture. Le changement de posture je l’entends depuis… je commence à être très vieille, donc changement de posture quand la télé est arrivée, changement de posture quand Internet est arrivé, changement de posture… Et puis on ne change pas de posture, je ne sais pas pourquoi. On a même créé un jeu pédagogique avec de l’IA derrière, dans lequel on oblige l’enseignant à se mettre sous la table, c’est une métaphore, pour qu’il change de posture pour trouver la solution, avec un casque de réalité virtuelle et tout ça, c’est très rigolo, mais les enseignants ne changent pas de posture. Peut-être que ce n’est pas la faute des enseignants, c’est comme quand on fait un système informatique et qu’on dit « les humains sont nuls », eh bien non, c’est peut-être le système qui n’a pas bien compris, là c’est peut-être pareil.
Il y a quelque chose que je ne saurais pas expliquer, mais j’ai une petite explication pour certaines choses. Ma pratique : j’apprends à mes étudiants de M1 à copier-coller pour faire de la programmation web. Je le fais avec eux, je n’ai aucun problème, on va tous ensemble, donc on crée un climat de confiance dans le copier-coller : « Regardez, il y a tel site pour faire telle chose, ce n’est pas la peine de réécrire les codes, donc on va faire ça ». Ce sont des gens qui viennent de physique, de chimie, etc., pour faire des pages web. Dans l’évaluation ils ont un projet, ils doivent penser et créer un projet qui leur est propre. Je vais les interroger sur leur création dans cet ensemble de copier-coller et ce que j’attends c’est l’esprit critique par rapport à ce qu’ils ont produit : « Là c’est mieux que ça, les codes HTML, le JavaScript, etc. » Je fais cet esprit critique sur le code depuis un certain temps, pas encore avec ChatGPT [5] que je vais tester l’année prochaine pour voir ce qu’il en est. C’est facile avec mes M1 où ils sont 30. J’enseigne aussi en L1 et ils sont 1200, donc je n’ai pas le temps d’interroger les 1200 sur un projet qu’ils ont fait.
Le problème c’est que le changement de posture dépend aussi du contexte, dépend de ce qu’on enseigne et là je n’ai pas de réponse par rapport à l’évaluation en dehors de la chose tristounette du papier en amphi, que je n’aime pas trop, parce qu’il faut aussi corriger. J’attends avec impatience que l’IA corrige toutes ces copies, ça serait l’idéal. Ce changement de posture est aussi au niveau du contexte dans lequel on est, les collègues avec lesquels on travaille : en M1 je suis toute seule, en L1 nous sommes 60 enseignants à enseigner. Vous imaginez la difficulté pour se mettre d’accord à 60 pour les évaluations, etc.
L’autonomie est hyper-importante, l’IA peut apporter des choses, mais il faut qu’on soit quand même conscient des différentes limites, comment l’utiliser et aussi créer un climat de confiance qui est différent de celui d’avant. Avec les M1 on fait ensemble les copier-coller. Les L1 viennent d’un système français très dirigiste, l’examen, etc., et quand on leur laisse leur liberté ils sont très déstabilisés, perdus. Ce contrat nouveau c’est difficile parce qu‘en plus le prof de chimie à côté, celui de physique vont faire complètement autrement. Je ne sais pas si au niveau institutionnel on peut faire quelque chose. On attend ce changement de posture de l’enseignant depuis des siècles. Peut-être qu’on peut mieux accompagner le changement de posture de l’étudiant à l’université, voire, c’est peut-être un peu plus difficile, commencer ce changement de posture au niveau du lycée, ça ne serait pas mal.
Sophie Pène : Il y a une dizaine d’années, 2012 je crois, Luc Massou, à l’Université de Lorraine, avait fait une étude, il y avait eu une cinquantaine d’entretiens. La grille d’entretiens était la même pour tous les enseignants, la question était : comment utilisez-vous le numérique et qu’est-ce que ça a changé à vos pratiques ? Une question m’avait spécialement intéressée, les informateurs répondaient : « Oui, bien sûr, je me sers du numérique. — Vous vous en servez comment, vous faites quoi ? — J’ai mis tous mes cours sur powerpoint. — Et alors comment les étudiants s’en servent ? — Je n’en sais rien, ils téléchargent, etc. Je ne sais pas, c’est leur affaire. »
On est donc en train de passer inéluctablement d’un monde, presque avec une sorte de coupure éthique : j‘ai fait ma partie du boulot et toi, ta partie c’est d’apprendre, de décrypter et de t’approprier. Si tu travailles à deux, si tu prends des notes, si tu commentes, c’est ton affaire. Là on sent bien que ce n’est plus du tout la même chose, que nos institutions sont en train de basculer, avec difficulté, vers un intérêt pour les compétences et pour les compétences acquises. Vanda parlait de la fameuse, fabuleuse compétence à l’esprit critique qu’on a bien du mal à cerner et voilà que maintenant on arrive dans une terra incognita de la compétence et ça va être une sacrée secousse quand même et peut-être de tout nouveaux chantiers.
Marc Oddon : C’est un chantier dans lequel, on va dire, les différentes universités et écoles se sont engagées depuis longtemps et qui n’est pas facile. À chaque fois qu’on dit : « La démarche compétences, vous en êtes où ? — Oh là ! », parfois c’est difficile. En fait, ça apporte un changement radical qui, pour nous, universitaires, est un peu complexe d’abord à accepter, c’est une question de posture.
On dit que la connaissance ou la ressource sort aujourd’hui des murs, est accessible. Un exemple que vous connaissez tous et on a tous nos stéréotypes : je rentre chez moi, ma fille avait à réparer le robot mixeur. J’ai dit : « Pousse-toi de là laisse-moi faire ! » Et ma fille me dit : « Mais non papa, c’est réparé !, j’ai pris un tuto sur Internet ! » Bing ! D’un coup, dans notre vie de tous les jours, on se rend compte qu’un outil numérique et les ressources numériques peuvent transformer les apprentissages, les augmenter, les modifier. Et là on se dit « nous serions les seuls, dans nos instituts de formation, à ne pas comprendre cela, à ne pas comprendre que les choses ne nous appartiennent pas, nous ne sommes pas gardiens de quelque chose, on transmet ». Et comment on transmet ? En effet la méthode, le chemin, on va dire presque l’entraîneur si on prend la métaphore sportive, est très importante, c’est celui qui voit le but, qui voit les enjeux et qui va faire progresser.
Interdire, on en a parlé pour Sciences Po, c’est la réaction immédiate : j’évalue comme ceci, ce n’est plus possible, ça n’existe plus. Nous, nous savons que l’outil existe et, justement, comment va-t-on faire , comment va-t-on travailler ?
Les universités et l’État se sont saisis de cela et ont défini justement une démarche en compétences où on va aller sur une activité professionnelle, c’est cela qui est important, un bloc de compétences, sur lequel on va décrire la mise en situation et, comme le dit si bien Guy Le Boterf « attention, avoir des compétences ce n’est pas être compétent en situation » [12].
Si on revient sur les exemples qui ont été donnés, il suffit de mettre la situation professionnelle et ne pas limiter les outils, mais on va regarder comment on arrive à répondre à la question. Et si l’outil permet d’être augmenté, d’aller plus vite, d’être plus performant ! Qui aujourd’hui aurait l’idée de dire « ne prends pas l’ordinateur, tu vas le faire à la machine à écrire ! »
Le danger qu’on peut avoir, c’est celui du processus d’apprentissage. Je reprends l’idée du sport. On dit « maintenant les voitures existent, j’ai le vélo, j’ai les mobilités douces, ça ne sert à rien de courir et de marcher ». Et pourtant, on voit toujours des gens courir, ils n’ont rien compris ! Ils s’entraînent ! Et pourquoi ? Justement ! Même si on veut être pilote de rallye, il faut aller courir parce que la condition physique est nécessaire, la condition mentale est nécessaire, donc la confiance entre le formateur et les personnes qui sont formées est fondamentale : quels sont les exercices que l’on va faire, pas pour dire « ça je peux le faire plus vite avec autre chose — ce n’est pas la question — quel exercice va me permettre de structurer et me rendre capable d’aller plus loin ? »
Je pense que cette position-là, dire, en tant qu’université, que nous devenons certificateurs — c’est très important — d’une connaissance, d’une compétence, de quelque chose qui a pu être acquis ailleurs, comment on le valorise, comment on utilise ces validations des acquis de l’expérience, comment on utilise et on mobilise ce qui est fait en numérique ailleurs, qui est disponible aujourd’hui, c’est ça la question de demain. Et là où l’université ne doit pas laisser tomber c’est que nous devons être garants, justement, de la compétence atteinte. Je pense que les processus d’évaluation, comment on se met en situation, quels sont les critères, quelles sont les modalités, sont les choses importantes à discuter et sur lesquelles nous avons besoin d’accompagner les équipes. Ça ne sert à rien de dire et de mettre le doigt en disant « vous ne savez pas faire, ChatGPT [5] donne tout de suite la réponse à ton exercice », ça ne sert à rien d’abaisser le collègue. Au contraire, il faut lui dire « quelle est la finalité professionnelle ? OK. Aujourd’hui avec les outils, regarde ce qu’on peut faire. »
La formation interne de nos enseignants, de nos enseignants-chercheurs sur les outils, est fondamentale. Pourquoi serions-nous la seule partie, on va dire, où on n’aurait pas besoin d’être formé, ouvert sur quelque chose ? La formation tout au long de la vie touche tout le monde. Aujourd’hui la transversalité, les enjeux de mobilité transverse, d’adaptation à l’emploi, sont nécessaires et passent par la formation. Il y a un enjeu dont le gouvernement s’est saisi puisque nous avons des directives qui arrivent et nous savons que nous devons former, permettre le retour en formation y compris à des personnes qui interviennent en formation.
Sophie Pène : On voit qu’on démarre avec l’idée qu’il y a un petit machin technique qui est en train de tout mettre à bas, de nous prendre de vitesse ; on répète cette question du rythme, ça va trop vite, ça va plus vite, on est en disruption, etc. Et là on a un paysage tout à fait différent qui se dessine. Un paysage où, au contraire, l’intelligence critique, l’accompagnement, la valorisation des singularités, des chemins, des processus, l’intégration de compétences acquises à l’extérieur ou loin de nos yeux, apparaissent et là ça devient une nouvelle mission si je puis dire, pour nos universités, pour nos établissements. Ils démarraient eux aussi avec l’idée de « ouille ouille ouille, gare à la triche et comment on va contrôler, comment on va réguler, comment on va interdire ». Mais on voit que ce petit outil, cette interface technique, pas intelligente et tout ça mais quand même, nous bouscule bien au-delà de la génération automatique de devoirs et de textes puisque ce sont presque tous les fondements, les visions de l’université et le rôle de l’université dans un environnement contemporain actuel extrêmement changeant. Là il y a toute une rafale de questions et nous allons peut-être être très synthétiques sur cette partie-là.
En tout cas, on a une université qui est en train de passer d’organisme certificateur mis en difficulté, mis en panne en quelque sorte, comme le disait Marc, à un organisme qui doit, on a l’impression, développer des coopérations internes bien plus fortes, c’est-à-dire s’appuyer sur l’expérience vécue des étudiants, des enseignants, et des expériences vécues qui étaient jusqu’à présent symbolisées par le projet ou par le stage, mais qui, maintenant prennent une tournure cognitive bien plus grande. Le projet, lui aussi, était un tenant lieu d’une expérience stimulante qui développe des formes d’intelligence, de capacité d’action, de rencontres qui déstabilisent et qui enrichissent, mais là, tout d’un coup, ce n’est plus tellement le projet ou le stage, c’est aussi quelque chose qui est l’expérience cognitive même.
Comment voyez-vous, à l’intérieur de vos établissements, la contribution même des enseignants et des étudiants à une nouvelle façon de prendre en compte ce qui est en train de se produire vraiment cognitivement et au plan de la connaissance ? Mais, avec une question subsidiaire qui est aussi que sur ces approches nouvelles on a une sorte de risque socio-professionnel, si je puis dire, c’est-à-dire que, d’une part, on a des enseignants-chercheurs dont certains ont mis de côté le numérique en disant « c’est un style d’usage qui ne me convient pas, qui, politiquement, traduit des idées qui ne sont pas les miennes, que j’estime être le bras armé de transformations que je n’ai pas désirées, qui vont vers la marchandisation, la baisse des compétences, etc. », que sais-je, plein de raisons et, tout d’un coup, on a par ailleurs des enseignants-chercheurs qui sont early adopters, qui expérimentent dans leurs classes, à l’extérieur, qui deviennent aussi des témoins pour le grand public. Est-ce qu’on ne va pas avoir une coupure dans la profession ? Et aussi quid des ingénieurs pédagogiques qui avaient un certain rôle et qui sont eux aussi accélérés ? Ça concerne effectivement FUN [1] et aussi les marchés de la formation continue.
Est-ce qu’avec ces points-là, un peu en vrac, vous pouvez aussi répondre sur ce que vous êtes en train de demander, d’attendre de vos établissements pour l’intégrer dans votre temps de travail ? Dans votre temps de travail vous avez tous aussi des responsabilités de pilotage. Comment va-t-on gérer le temps humain ? Tu parlais des questions qui arrivent la nuit, de cette espèce de continuum pédagogique qui était déjà très bouleversant avec le mail et avec l’enseignement hybride et maintenant il y a encore une autre temporalité.
Pardon, j’ai été un peu longue, maintenant on bascule sur : que va-t-on faire ?
David Cassagne : C’est vrai que tout cela est quand même très nouveau. Là c’est plus avec ma casquette de vice-président que je parle : au niveau des positions ça a déjà été d’alerter tous les directeurs de composantes dès le mois de février pour que chaque composante s’empare du sujet. Je pense que ce qui est quand même important de percevoir c’est que toutes les disciplines, tous les domaines ne sont pas impactés de la même façon. On parlait des aspects liés à l’informatique où l’impact est assez direct. Je cite à nouveau cet exemple en tant que physicien, je fais des enseignements de mécanique quantique, je ne vois pas ça très impacté. Ça va donc vraiment dépendre des disciplines.
La première réaction a été de dire on va mettre en place un groupe de travail interne qui va rassembler des représentants des différentes composantes, parce que, au mois de février, on était sur cette question : c’est dans la presse, Sciences Po a interdit, les écoles de New-York ont interdit. La position n’a pas été de dire on interdit, mais plutôt on s’empare. La question s’est posée aussi : est-ce qu’il faut faire des recommandations, des règles ? Là aussi on trouve que c’est tellement nouveau que c’est un peu difficile. C’est donc plutôt de dire on va déjà observer quels sont les usages.
Actuellement une enquête a été lancée auprès des enseignants, au niveau du service, sur leurs usages du numérique : quels sont leurs usages, que perçoivent-ils de la part des étudiants et qu’attendent-ils en termes de formation ? Les ingénieurs pédagogiques, les services vont effectivement être mobilisés sur ce sujet en fonction des attentes. On en est là pour l’instant. On va avoir aussi des mécanismes d’appel à projet pour pouvoir soutenir des enseignants qui veulent faire des transformations. Néanmoins, et c’est ce qui a été dit tout à l’heure, il y a une liberté pédagogique des enseignants et il ne s’agit pas non plus de leur imposer quoi que ce soit mais de leur montrer.
C’est difficile aussi de leur donner des textes de référence. On a rédigé des choses et puis c’est obsolète au bout de trois semaines. Finalement, on essaye de se référer à des documents un petit plus globaux, en particulier un guide qui a été édité par l’Unesco sur justement les IA génératives et l’enseignement [13]. On essaye déjà de leur fournir ces éléments.
Voilà pour l’état actuel de la chose. Après, il y a un deuxième niveau qui sera le niveau des programmes et là c’est une autre étape.
Alain Goudey : Je vais dire ce qu’on fait à NEOMA puisqu’on a déjà démarré pas mal de choses.
Il faut déjà avoir en tête que notre structure organisationnelle est très particulière puisque j’ai la chance de piloter une équipe qui est en charge de l’exploration des innovations pédagogiques. Ça veut dire qu’on est en veille permanente sur tout ce qui se passe en termes d’innovations pédagogiques, du coup le phénomène d’IA génératives, je ne vais pas dire qu’on l’a vu venir des années à l’avance, ce n’est pas vrai, mais, en gros, on a commencé à s’y intéresser un an avant la fameuse date de novembre 2022. On l’avait dans un coin de notre tête, mais ce n’était pas prêt, ce n’était pas efficace, on ne voyait pas trop ce qu’on allait en faire. Est arrivé novembre 2022 et, très vite, on a pu mettre en situation pour avoir justement cette observation très directe de ce que ça produit avec des étudiants, avec des professeurs, donc on a mis ça en situation dans la salle de classe et on a commencé à regarder un petit peu les questions que ça posait, les limites, les avantages, etc.
L’autre mouvement, on a fait effectivement cette démarche-là, c’est la mise en place d’un groupe de travail, parce que l’enjeu n’est pas uniquement au niveau du professeur, l’enjeu est au niveau de tout l’établissement.
Une fois encore, qu’un étudiant utilise une IA générative, ça ne me pose aucun problème, c’est ce que tu évoquais : à partir du moment où sa réponse est meilleure, où il va plus loin, où il est plus performant dans son apprentissage, que cet apprentissage monte et s’avère meilleur, c’est très bien. En revanche, ce qui n’est pas acceptable, c’est l’imposture intellectuelle de dire « ça c’est moi qui l’ai fait « alors qu’en fait c’est une IA générative. Ça ce n’est pas acceptable. Du coup la question devient : comment je fais pour créer le climat de confiance qu’on évoquait, comment je fais pour citer le fait que j’ai utilisé ça ou ça, est-ce que je demande le prompt, est-ce que je demande le résultat ? Bref ! Nous nous sommes posés plein de questions. Aujourd’hui on se limite à demander le prompt et on va demander à nos étudiants de mettre en tête de leurs documents la liste des IA génératives qu’ils ont utilisées. C’est anecdotique, mais pas tant que ça ! Une fois encore, à partir du moment où on est bien dans cette relation de confiance, ce n’est pas problématique d’utiliser ce type d’outil pour peu qu’on le reconnaisse.
J’ai vu passer un chiffre qui est assez étonnant : 68 % des salariés français qui utilisent en l’occurrence ChatGPT [5] ne le disent pas à leur supérieur et ça c’est problématique, c’est très problématique parce que, du coup, vous avez tous les problèmes qui vont se raccrocher : la fuite des données, vous mettez des données confidentielles, un rapport de réunion copié-collé, vous demandez à Samsung ce que ça leur a fait d’avoir des données confidentielles qui se retrouvaient dans GPT, ils n’étaient pas très contents. Tout cela c’est du mauvais usage, ce sont des choses qui ne sont vraiment pas nettes. Notre job c’est de former au bon usage de ces outils-là. Il y a donc une réflexion organisationnelle, on a donc effectivement un groupe de travail.
Dès mars, pour le coup, on a fait un premier atelier, parce que la démarche est toujours la même : première phase informer, pour justement éviter le « ça n’existe pas, je ne veux surtout pas en entendre parler ». On a réuni toute notre faculté, on a fait deux workshops et on a informé, montré concrètement ce que ça faisait, ce que ça ne faisait pas, sur la base des itérations qu’on avait faites dans la salle de classe, on avait donc déjà pas mal d’éléments.
Demain on fait la suite, cette fois-ci on ne va plus être sur l’informer, on va être sur le « à vous de faire ». Le « à vous de faire », en gros, va se faire en deux parties : une première partie où je vais faire une conférence à la faculté sur « où on est-ce qu’on en est aujourd’hui ? » puisque, une fois encore, ça a énormément bougé, avec un objectif très net : expliquer qu’il y a quand même beaucoup de questions à se poser dans notre job d’enseignant-chercheur parce que ça peut aussi contribuer sur la recherche, il y a plein de choses qu’on pourrait regarder. La deuxième partie c’est « maintenant à vous de jouer, faites-le, prenez un exercice que vous aviez en tête, on le rentre, on le fait ensemble et on regarde si c’est pertinent, pas pertinent ». Tiens, finalement il répond. OK ! Quelles vont être les stratégies que vous allez pouvoir mettre en place pour intégrer cet outil dans le processus pédagogique tant sur l’aspect formation que sur l’aspect évaluation.
Après, il va y avoir la mise en résonance de tout cela. On est aussi un train de créer une communauté de professeurs à NEOMA. On a nos early adopters qui ont été évoqués, ceux-là y sont déjà. On va juste les mettre ensemble, capitaliser sur toutes les expérimentations que ceux-là font en cycle court et on en va faire bénéficier l’ensemble de notre faculté avec une mécanique de formation et d’accompagnement.
On a donc un plan de formation qui est assez important sur les IA génératives. Il y a des choses qui existent sur étagère, il y a d’autres choses qu’il va falloir qu’on crée par nous-mêmes parce que ça n’existe pas et on va avancer de cette manière-là.
À la rentrée on va sensibiliser tous nos étudiants sur ce sujet-là. En l’occurrence, je vais intervenir auprès de tous les étudiants, tous les programmes, avec la thématique IA génératives, les limites, les biais, les avantages, comment on s’en sert, etc.
Et enfin, dernier étage, on a évidemment des formations cette fois-ci à destination de nos étudiants.
Comme je l’évoquais, notre contexte est très particulier puisque l’innovation est au cœur de notre stratégie d’établissement, donc ça aide déjà un tout petit peu, et, deuxième point, on a déjà des briques pédagogiques qui existent avec des cours en ligne qui existent. Parler d’IA génératives c’est en fait un élément qu’on va insérer dans un véhicule qui est déjà existant.
Dernier point, je pense que de manière systémique on a un vrai sujet sur la valorisation du temps des collègues sur l’innovation pédagogique ; en fait, on ne va pas se mentir, ce n’est pas valorisé ! Je pense qu’il faut qu’on regarde – je n’ai pas la réponse, je suis sur de la question –, mais je pense qu’il faut qu’on arrive à avoir, comme on a une valorisation de la recherche, des contributions intellectuelles pour la recherche, qu’il serait intéressant qu’on ait un mécanisme de contribution intellectuelle pour l’innovation pédagogique parce que je crois que l’efficacité pédagogique ne doit pas être sacrifiée sur l’autel de la liberté pédagogique, il y a probablement un équilibre à trouver. Bien sûr, on ne va dire pas dire aux professeurs « tu fais comme ci », on deviendrait des robots, ça n’aurait aucun sens. En revanche, je pense qu’il y a énormément de choses sur lesquelles on peut capitaliser avec les ingénieurs pédagogiques, avec les neurosciences, avec l’IA, sur nos manières de faire et c’est là où on doit, probablement, faire évoluer les choses, mais il faut qu’il y ait de la valorisation de cela, que ça soit du temps ou que ça soit d’autres mécanismes.
Vanda Luengo : Au niveau de Sorbonne Université il n’y a pas de directive, c’est une université un peu grosse. Dans notre faculté des Sciences et Ingénierie, on a commencé par informer, nous sommes des scientifiques, chimie, physique, etc., nous voulons comprendre. On a fait venir des spécialistes de l’IA générative pour les langues qui ont expliqué un petit peu ce qui se passe. La plupart des gens qui étaient là étaient des physiciens qui sont très intéressés et des chimistes.
Pour l’instant c’est simplement informer, probablement que ça va être un peu plus long pour qu’ils commencent à l’utiliser. Souvent je pense qu’ils vont plutôt être confrontés à l’étudiant ou à l’étudiante qui va bousculer la pratique, mais il n’y a pas vraiment de directive ni de réflexion. Par contre, dans notre institut d’IA qui s’appelle SCAI [Sorbonne Center for Artificial Intelligence], on a commencé à faire plein de modules de formation sur l‘IA et sur se servir de l’IA à tous les niveaux, on a un financement de l’État autour de cela. Nous sommes responsables d’un master en éducation, il y a un petit module sur l’IA éducation – l’étudiante qui a fait ça est présente –, on le fait depuis pas mal de temps.
Tout dépend. C’est un peu la maladie du Minitel. Nous avons été les premiers et comme on était sur Minitel, Internet est passé, on a laissé passer, c’est un peu pareil. parfois nous sommes les premiers et après on a un peu plus de lenteur dans la façon dont on va s’approprier ces outils.
Au niveau politique de l’université il n’y a aucune directive, voire de note, on laisse vraiment les gens travailler autour de ça.
Dans les centres d’innovation pédagogique, les ingénieurs pédagogiques doivent déjà comprendre, c’est aussi le problème. On demande aux enseignants du primaire de connaître tous les domaines, tout et partout. La compétence principale des ingénieurs pédagogiques, heureusement, c’est de scénariser donc apprendre et accompagner à scénariser les ressources. Ils savent un petit peu faire, mais je pense que l’important c’est plutôt cette intelligence dans la créativité, beaucoup le côté créatif pour rester encore dans la scénarisation.
Je pense que ces ingénieurs pédagogiques sont vraiment plus à la recherche de cela et l’IA générative les aide parce qu’ils se débarrassent de contenus où ils sont toujours embêtés parce qu’ils connaissent beaucoup moins que les enseignants qu’ils ont en face. Les profs de physique connaissent la physique. Il y a parfois une relation d’infériorité parce qu’on les accompagne à enseigner quelque chose qu’on ne connaît pas et là je pense que ça peut être un atout- Là c’est vraiment mon opinion personnelle, ce n’est pas du tout le positionnement de mon université. Je pense que ça va être aussi une opportunité pour que ce marteau soit bien utilisé aussi par les ingénieurs pédagogiques.
Sophie Pène : Merci.
Marc Oddon : Au niveau de notre université ça été aussi une grande question. Pour tout vous dire, la semaine prochaine on rassemble tous nos responsables de mentions sur l’ensemble de l’université et c’est une des thématiques : comment on s’en saisit ? La formation est donc fondamentale.
La deuxième, qu’on a trouvée la plus pertinente, c’est aussi dans l’accompagnement sur la préparation à l’accréditation, nos diplômes sont accrédités. On avait souvent un peu l’habitude de passer l’accréditation des diplômes, puis de respirer, laisser passer quatre ans et quand ça revient on se remet au travail d’un coup. On a décidé de changer ce rythme-là et de préparer à l’accréditation dès la fin, en réfléchissant et en accompagnant les équipes justement sur la démarche compétences pour qu’on se sente sur quelle activité professionnelle, comment je vais évaluer et à travers ça, bien sûr, les outils.
Je pense que cet accompagnement-là permet aussi d’aller sur du concret avec des exemples et de désacraliser, parfois, un sujet qui clive quand même, on l’a dit tout à l’heure, certains ne veulent même pas en parler, le trouvent dangereux dans sa vision du futur. On peut avoir peur de ce que ça peut amener, personne ne connaît le futur, en tout cas on a cette responsabilité de le préparer.
La deuxième partie c’est aussi notre investissement à labelliser les formations sur la partie IA. On a séparé ce qu’on appelle cœur et applications pour que tous nos étudiants de première année puissent passer certains modules qui ont été estampillés sur ça et qu’à la fin d’un premier cycle de licence tout le monde ait eu au moins une formation de base sur ces aspects-là et aient même la capacité à aller plus loin. Ceci nous pose la question – on en a discuté aussi au niveau de FUN [1] –, des micros certifications, c’est-à-dire qu’aujourd’hui les blocs de compétences sur nos diplômes sont assez larges, sont un peu gros. Je prends souvent cet exemple en disant « on nous demande d’aller sur le marché de détail, on a l’échoppe sur le bord du marché et on ne peut vendre qu’à la tonne, donc tous les gens nous regardent en disant c’est super l’université ». Cette question vraiment importante de notre mission universitaire est une question sociétale extrêmement forte, ça a été rappelé, c’est-à-dire comment nous sommes présents sur cela, comment on peut enlever cette barrière de retour en formation. Aujourd’hui essayez autour de vous, dites : « Alors, tu vas retourner faire des études à l’université ? — Ah non, je l’ai quittée il y a 20 ans, déjà pour avoir mon diplôme ! ». Comment on change ceci c’est vraiment fondamental. Le retour en formation doit être simple, il doit être valorisé, il doit être intéressant, il doit être pensé, c’est-à-dire en tant que structure d’accueil, il ne faut pas qu’on ressemble à Astérix légionnaire, il ne faut pas aller taper à tous les étages et ne pas savoir ; être dans le côté pratique de la labellisation, de la certification, de la capitalisation, de la mise en valeur pour que, enfin, la certification permette aussi les mobilités au niveau professionnel parce que les enjeux seront là.
Alain Goudey : Je voulais juste apporter un chiffre sur le clivage, c’est hyper-important. Une étude de Capgemini [14], que j’ai mise sur Twitter et Linkedin, dit, en gros, que 60 % des enseignants trouvent qu’avec les IA génératives il y a un vrai sujet pour les compétences de demain avec une évolution des métiers, je ne sais pas si on l’abordera, en tout cas, oui, c’est clair, il y a un vrai sujet. Donc 60 % des enseignants pensent cela et, en même temps, 80 % de ce même échantillon dit « en fait je suis extrêmement inquiet par rapport à cet outil-là ». On voit donc bien que le clivage est à l’intérieur de la profession, tu évoquais une division, mais on voit bien qu’on peut être les deux, c’est-à-dire se dire « oui il y a clairement un truc » et personnellement j’appartiens à cette catégorie. Je pense que oui il y a un truc, ça va changer beaucoup de métiers, il ne faut pas se leurrer, ça a déjà démarré, on voit qu’il y a plein de décisions en entreprise, mais, pour autant, il ne faut pas faire n’importe quoi avec. C’est bien là qu’il faut qu’on arrive à dessiner un cadre, collectivement, pour éviter de faire n’importe quoi. Donc oui, le clivage y est et je vous invite vraiment à parcourir cette étude de Capgemini qui est très bien faite, vous la retrouverez online.
Sophie Pène :Déjà, je vous remercie, on n’a pas fini, on va passer à un petit moment de synthèse. Moi-même qui avais déjà discuté avec vous j’ai à nouveau appris beaucoup de choses nouvelles : ces déplacements qu’on vient d’établir, grâce à vous, de cette vision de l’outil qui dérange à une occasion à saisir pour amplifier les missions actuelles des universités dans la direction d’une attention plus fine aux compétences et d’un contrat moral, d’un contrat qui continue ce travail déjà commencé d’un respect de l’apprenant, d’une prise en compte de ce qu’il est et d’une reconnaissance qui fait qu’il peut avoir davantage envie de raconter comment il travaille et davantage d’espace pour cela, ce que propose Alain : comme on a eu et on a toujours, grâce au ciel – grâce au ciel je ne sais pas –, les bibliographies, les sitographies et maintenant la liste des ressources IA génératives qu’on a utilisées et peut-être les prompts qu’on a utilisés et les successions, les formulations successives.
Avant d’ouvrir le débat avec le public où, bien sûr, il y a plein d’expériences comparables qui sont en train de se mener, je voudrais vous poser quelques questions un petit peu de synthèse, vous proposer de répondre vite parce que je voudrais en poser plusieurs, que chacun réponde quand il a envie et pas forcément systématiquement, comme on vient de faire là, pour bien croiser les points de vue.
Une première question. On voit bien que vous avez déjà fait des choses dans vos universités, intelligentes, constructives, et que vous embarquez avec vous pas mal de gens et vos présidences. Nos universités autonomes entretiennent entre les sites une certaine compétition et il n’y a pas forcément, en ce moment, de grandes journées, comme FUN [1] en prend ici l’initiative, pour partager. Autant on partage facilement et bien non seulement les articles scientifiques mais maintenant, de plus en plus, les jeux de données, comment va-t-on partager les initiatives que vous êtes en train de prendre et peut-être la feuille de route de NEOMA, des choses comme ça ? Est-ce que vous pensez que l’ESR est prêt, est disposé à organiser une structure coopérative alors que les politiques d’appel à projet ont créé involontairement des espèces d’opacité où chaque équipe est un peu en compétition pour décrocher la bourse et ensuite ne partage pas forcément ses résultats.
Quand elle était à l’ANR [Agence nationale de la recherche], Mireille Brangé mettait l’accent sur l’intérêt qu’on aurait d’avoir de l’open data sur ces sujets, d’avoir une vraie politique transformatrice.
Comment vos initiatives vont-elles être réellement transformatrices pour la communauté au-delà de ce type de journée ? Est-ce que certains d’entre vous une idée généreuse là-dessus ?
Alain Goudey : Moi j’ai déjà commencé, je mets tout en ligne, c’est un bon moyen de faire bouger. Pas à chaque fois tout parce qu’un certain nombre d’interventions peuvent ressembler aux précédentes. Une fois encore, beaucoup de choses sont accessibles en ligne, je pense que c’est une première démarche. La feuille de route de NEOMA, au moment où on jugera qu’on peut la communiquer, sera probablement en ligne et elle sera communiquée.
Après, je crois qu’il y a un truc qu’on n’a pas dans le supérieur, je l’ai déjà dit à plusieurs reprises et dans pas mal d’endroits, c’est une entité comme le réseau Canopé [15]. Ça ne serait peut-être pas mal, en fait, qu’on ait une entité – je ne sais pas quelle structure, je ne sais pas si c’est du copier-coller qu’il faut faire, je n’en ai aucune idée –, en tout cas une entité dont la mission serait justement d’animer cette démarche d’innovation, de partage, de rencontres entre professeurs qui expérimentent. Il y a plein de professeurs qui innovent : à l’échelle d’un établissement, dès que vous commencez à poser la question, vous vous rendez compte qu’il y en a plein. Pour le coup, la liberté académique offre ça. Par contre, ce qui manque c’est cette mise en commun, c’est ce partage, c’est capitaliser sur les résultats : « Moi j’ai fait ça, ce n’était pas terrible. – Moi j’ai fait un peu pareil, en rajoutant ce petit truc-là, l’engagement était meilleur, l’apprentissage était meilleur, etc. » Bref ! J’en suis arrivé à la conclusion qu’avoir une entité qui anime cette dimension-là ça pourrait être intéressant. Du coup, si vous suivez ma logique : si on valorise aussi, on a les deux piliers qui vont faire que probablement ça risque d’avancer un peu plus vite et de dépasser, peut-être, les clivages régionaux ou entre établissements.
Vanda Luengo : Il y a deux personnes de Canopé, si elles veulent intervenir après.
Je voulais intervenir parce que je pense aussi que c’est effectivement une bonne idée. Après, les réalités ne sont pas les mêmes. Dans notre recherche en IA en éducation, la plupart de nos projets sont en collège, beaucoup, un tout petit peu lycée et pas mal en primaire ; j’ai fait peut-être un ou deux projets à l’université, en me bataillant et vraiment par ma volonté, mais il y en a très peu. Je pense que les raisons sont liées aussi à cet aspect massif des universités, et puis aussi, effectivement, à cet aspect d’un enseignant dans une classe, ce qui n’est pas pareil que quand on est 40 ou 60 enseignants. On avait fait une IA qui envoyait des mails automatiques de motivation en physique en première année. Au début six enseignants étaient partants sur les 60, après on en a eu sept/huit et après c’est redescendu. Même la mise en place de cela est assez compliquée, et dans les partages d’expérience c’est le même chose.
Ce qui est beaucoup plus difficile c’est l’appropriation. On peut partager, les universités thématiques numériques c’est ça finalement, on a partagé nos ressources. Pas beaucoup de gens l’utilisent. Quand je parle Unisciel [16] dans ma faculté de Sciences et Ingénierie, 80 % de gens ne connaissent pas et les autres disent : « oui mais moi, quand je l’ai fait, etc. » Il y a un problème pas seulement de partage mais d’appropriation. Et je pense que cette question de comment on fait pour partager est intéressante, voire plus forte : comment on accompagne l’appropriation de ces différentes pratiques, comment on aide à les mettre dans sa réalité, dans son contexte qui est probablement très différent entre l’université, l’école d’ingénieur, l’école de commerce, etc. ? L’appropriation est pour moi aussi un mot clef ; ce n’est pas seulement le partage mais l’appropriation.
David Cassagne : Cette fois-ci c’est plus avec ma casquette de président de FUN. FUN est groupement d’intérêt public, c’est une communauté et FUN s’oriente en fonction des souhaits de la communauté. FUN c’est vraiment un instrument de mutualisation et je pense que là on est face à un enjeu massif.
Les gens voient le côté MOOC, mais il n’y a pas que ça dans FUN, il y a des projets comme Digital FCU [Formation continue des universités en ligne] qui sont des projets plus pour le développement des modules de formation, qui ne sont pas, cette fois-ci, des modules gratuits, qui peuvent être des modules payants où il peut y avoir un accompagnement plus important. Au niveau des MOOC, il y a déjà des MOOC sur l’intelligence artificielle. On voit qu’ils sont déjà en train transformer leurs contenus pour pouvoir, justement, y intégrer aussi les aspects liés aux IA génératives. Les MOOC ça peut être un instrument, sachant que quand on parle de formation c’est vraiment formation de la population en entier. Il y a effectivement les personnes qui sont en emploi, qui veulent augmenter leurs compétences, mais ça peut concerner aussi des retraités. Les MOOC ça peut être un instrument sur ces aspects-là. Les formations qui pourraient être développées, mutualisées, peuvent également être un instrument et puis aller peut-être plus loin par rapport aux orientations que tu indiques.
Bien sûr, reste après la question de l’appropriation et c’est aussi le jeu des établissements, le jeu des différents acteurs.
Marc Oddon : Pour rebondir concernant l’appropriation. Je me souviens quand est arrivé à l’université de Grenoble Compilatio [logiciel anti-plagiat des universités] qui permettait de vérifier, nos collègues sont allés très rapidement dessus, ils disaient « c’est quand même sympa, on peut attraper ceux qui n’ont pas fait comme il faut et c’est bien référencé ». Quand on dit « l’outil peut exister, ce type, dans la capacité générative », là tout de suite on dit « non, ça ne m’intéresse plus ! »
Pour répondre à la question plus précisément, une chose qui me tient à cœur au niveau national, c’est le travail avec France compétences [17] sur ce qu’on a sorti comme certifications, c’est important aujourd’hui si on veut avoir aussi un cadre national. Tout le monde s’est cru la personne la plus innovante dans son petit carton, on va dire, et a sorti son diplôme, qui son DU, son machin, son ci son ça. Et là on a un travail à faire pour que justement la lisibilité, les compétences, ce que l’on veut atteindre, le niveau, puissent avoir une cohérence, une lisibilité nationale et c’est un vrai chantier.
Sophie Pène : Tu voulais aussi dire, Marc, que tu interpelles toutes les récentes formations en IA qui sont ultra-techniques où il y a peut-être des correctifs rapides à tenter, justement sur les pratiques, les compétences, l’esprit critique. Il manque les usages.
Marc Oddon : Bien entendu. Il manque les usages.
Alain Goudey : C’est vrai qu’aujourd’hui on subit un peu une séparation entre, d’un côté, le monde de l’ingénierie et, de l’autre côté, les sciences humaines, je fais un peu dans le cliché, mais c’est à peu près l’idée. C’est vrai qu’on a beaucoup de formations techniques autour de l’IA avec plein de choses qui existent, en revanche, sur les usages il y a beaucoup moins de choses. C’est un peu normal aussi parce que les usages se créent à partir du moment où la technologie est démocratisée, or elle vient de se démocratiser en novembre, ce n’est donc pas anormal qu’on n’ait rien sur les usages, mais il va falloir qu’on bouge.
Sophie Pène : On va partager. On n’est vraiment pas généreux avec vous.
Juste un point qu’on n’a pas le temps de développer, que je pose « à la brute », ce sont les contradictions très fortes de nos institutions qui vont demander un LLM propre pour l’Enseignement supérieur et la Recherche, pour la formation, qui vont précipiter les usages et les amplifier et puis, en même temps, le périoste fond bien plus vite que prévu et dès 2030 il n’y aura plus rien, donc il y a aussi les questions énergiques qu’on oublie le temps qu’on parle de ça et d’innovation, mais c’est quand même la question essentielle que je pose sombrement. Je ne sais pas si vous avez une réponse sur des usages sobres de tout cela, mais ça va être un problème et peut-être que le coup d’arrêt viendra d’une source tout à fait consistante physiquement.
On vous rend la parole en nous excusant d’avoir été sans doute plus longs que ce qu’on aurait voulu pour un partage plus équilibré avec vous.
Vos questions sur une perspective de partage des compétences, d’interpellation des intervenants, de suite à donner, d’interpellation aussi, bien sûr, de nos tutelles. En 2012, le ministère de l’Enseignement supérieur a donné le go à FUN, une structure souveraine dans la crise des MOOC, dans l’alerte à la tempête que les MOOC allaient être. Est-ce qu’on va aussi avoir une réponse institutionnelle sur ces sujets ou un propos public ?
Public : Je suis enseignante-chercheur à AgroParisTech. Je vous remercie beaucoup pour cette table ronde très passionnante. J’ai une question toute bête : je n’arrive pas à comprendre comment Sciences Po a pu interdire ChatGPT [5].
Alain Goudey : Je vais quand même rétablir une vérité, parce que ce n’est pas vrai en fait.
Ce qui s’est passé c’est qu’effectivement un courrier a été adressé aux étudiants, je ne sais plus qui l’a envoyé, peu importe. Au moment où c’est sorti je suis remonté au courrier qui a été adressé pour, quand même, essayer de comprendre parce que je trouvais ça effectivement un peu bizarre. Le courrier dit explicitement que dans certains cas de figure il sera explicitement marqué que l’outil sera interdit et si l’étudiant l’utilise malgré tout alors il aura des problèmes, c’est cela qui était écrit. Ça a été un tout petit raccourci au niveau médiatique avec le titre, en l’occurrence, je crois, par France Info, sur le mode « Sciences Po interdit ChatGPT » et depuis tout le monde a gravé ça dans sa mémoire. Mais fondamentalement, je crois qu’ils sont sur une démarche assez similaire à celle de beaucoup d’autres établissements. Merci pour la question. Je ne travaille pas à Sciences Po, mais c’est important quand même en termes d’esprit critique de prendre aussi cette distance-là [18].
David Cassagne : Il y a quand même des institutions qui ont vraiment interdit ChatGPT, par exemple dans les écoles publiques de New-York il y a eu une interdiction sur le réseau de l’accès à ChatGPT. Mais il y a à peu près 15 jours, je crois, le recteur a annoncé qu’il revenait, qu’il changeait d’approche et, au contraire, qu’il était plutôt dans une démarche d’accompagnement des enseignants dans les usages de ces outils ; je vous parlais tout à l’heure du guide de l’Unesco [13], rappelant bien sûr pas de données personnelles, pas de données sensibles, avec également un travail avec le MIT [Massachusetts Institute of Technology] pour développer des ressources pour les enseignants, pour l’éducation primaire, secondaire, sachant que le MIT c’est quand même l’établissement qui a développé Scratch [19], qu’on retrouve actuellement très largement dans les enseignements secondaire et primaire.
Vanda Luengo : Avant Scratch ils ont fait Logo [20] qui était génial, n’oubliez pas, Scratch est une copie de l’époque de la tortue.
Je voulais dire que c’est l’interdiction mais c’est vrai qu’on l’utilise, on peut presque remercier d’avoir dit à peine ça parce que ça nous sert comme outil. Je suis enseignant-chercheur en IA éducation et j’avais signé le moratoire des six mois [21] pour qu’on dise « prenons le temps de comprendre », ça va trop vite et on a la responsabilité au moins de comprendre, donc même ceux qui ont créé, OpenIA, n’avaient pas le moyen d’expliquer, on parle de boîte noire. Je connais 1 + 1 par rapport aux connexions Berkeley, ils n’étaient pas capables d’expliquer pourquoi et comment ChatGPT faisait. C’est une peu comme les phénomènes de physique dont on parle et d’émergence, là on est clairs. Prendre le temps c’est quelque chose qui est important aussi. Ma posture était celle-là : prenons le temps de comprendre et en attendant on interdit. Après c’est un peu naïf d’interdire parce que les étudiants sont très créatifs.
Sophie Pène : Tout à l’heure, Vanda, tu parlais joliment, si on peut dire, de la maladie de l’Internet. Luc Julia a dit « nous sommes les meilleurs, relevez la tête, soyez fiers de vous ». On a bien vu que l’ESR a une responsabilité non seulement vis-à-vis de ses propres établissements mais également vis-à-vis de la société. Peut-être, pour finir, pourriez-vous donner les points forts sur lesquels on peut maintenant s’appuyer pour, effectivement, se remettre en maîtrise, en avance de phase et tirer tous les bénéfices de ce feu qui a saisi comme ça l’ESR. Qu’est-ce qu’on a en force pour ne pas avoir la maladie de l’Internet. Sur quoi s’appuyer ?
David Cassagne : On en a déjà parlé un peu. Pour moi il y a quand même la dimension de l’open source, ça a été dit. Est-ce que c’est simplement au niveau français, est-ce que c’est à un niveau international, on voit bien qu’il y a des projets open source qui existent au niveau international et on voit bien qu’il va y avoir une multitude d’outils et probablement une régulation des grands acteurs, mais également un développement d’outils qui seront plus transparents à la fois par rapport aux contenus d’entraînement, aux modes de fonctionnement. L’open source est dans l’ADN de FUN, je pense que c’est quelque chose qui est important et, dans ce domaine-là, pour moi en tout cas, il faudrait aller vers ces aspects.
Alain Goudey : La question n’est pas simple sur les éléments de force, il y en a beaucoup. En termes d’enseignement supérieur nous sommes extrêmement reconnus dans le monde entier. Si on met cet aspect de l’enseignement supérieur, l’aspect sur les mathématiques et l’aspect sur l’IA, on a quand même à peu près toutes les cartes en main pour pouvoir avancer. Je pense qu’il manque, en gros, une vision, tracer le chemin, ce vers quoi on voudrait aller.
Il est intéressant de regarder ce qui se passe aux États-Unis. Depuis la sortie de ChatGPT, ils sont tous sur le sujet, tant sur un versant open source : Meta est un des premiers acteurs de l’open source sur l’IA générative – je parle bien de Facebook – et, derrière, vous avez des établissements d’enseignement, type Stanford, qui créent aussi leur propre modèle. L’open source peut être une démarche. Je crois qu’il y a une impulsion aussi des pouvoirs publics, mine de rien, de dire « c’est vers ça qu’on veut aller ». Est-ce qu’on se met en situation de produire un LLM français, en tout cas francophone, ou européen, dédié à l’Enseignement supérieur et à la Recherche, personnellement je serais ravi. Pour le moment le seul élément qui fait que je n’ai pas décidé de déployer ChatGPT et OpenIA dans NEOMA [2] c’est que je ne sais pas où vont les données et je ne sais pas ce qui en est fait, plus exactement je sais et justement je n’en veux pas. Le sujet est là. Comme on doit avancer sur ce type d’outil, il faut qu’on puisse créer, tu évoquais un bac à sable, des outils qui nous permettent de former nos étudiants sur ce qu’est une IA générative, ce que ça fait, ce que ça ne fait pas, mais qu’on le fasse en sécurité, c’est important. Là, en fait, on a une porte ouverte absolument colossale à la fuite des données parce que le phénomène est très pernicieux, c’est du langage, c’est de la discussion, donc on a l’impression qu’on se confie à un ami.
Public : Je suis inspectrice académique pédagogique régionale sur l’académie de Montpellier. Sur l’impact de l’IA, vous l’avez évoqué, il y a un impact sur l’identité professionnelle des enseignants. J’avais une question : je voulais savoir si vous aviez des leviers à proposer pour accompagner ce changement dans l’identité professionnelle, au-delà de la formation qui peut être proposée aux enseignants.
Sophie Pène : Je crois que le vrai horizon c’est une rénovation pédagogique très profonde, mais !
Marc Oddon : On a d’ailleurs travaillé avec le rectorat dans le cadre de la mise en place de l’enseignement de l’informatique au lycée. Aujourd’hui on réfléchit aussi à la valorisation de l’engagement des enseignants et enseignants-chercheurs dans la formation sur ces points-là. Des badges ont été créés, des petites choses sont faites, il faut aller encore plus loin. Aujourd’hui on a des enseignants et enseignants-chercheurs qui prennent six mois de disponibilité à l’université non plus que pour la recherche mais pour la pédagogie, ce qui est nouveau et on commence à avoir du monde. C’est assez intéressant. Après, vraiment dans la caractéristique et la définition du poste en lui-même c’est un peu compliqué. Sur ce plan-là on essaye, à l’université, d’encourager, de valoriser, en particulier dans les référentiels qui permettent les applications, le suivi.
Sophie Pène : Il nous reste à vous remercier très chaleureusement pour ce qui est quand même une prise de risque parce que les choses sont fraîches et personne, parmi vous, ne prétend avoir toutes les solutions. Après la brillante conférence de Luc Julia j’espère que nous n’avons pas trop démérité et que ce partage de points de vue, d’expériences, aura bien lancé la réflexion coopérative que FUN nous permet et nous l’en remercions.
[Applaudissements]