[Merci à Barbara Class, qui a écrit dans ce blog, de nous avoir pointé le travail effectué dans son Université. D’avance des excuses sont nécessaires s’il existe un travail similaire -que nous n’avons pas vu- dans une Université Française. Enfin, des excuses également pour avoir abandonné provisoirement le tout francophone, mais ce sujet a besoin qu’on s’intéresse à ce qui s’écrit dans toutes les langues, pas qu’en français.]
Qu’on appelle cela “IA génératives” ou “IA conversationnelles”, on parle un peu de la même chose. Les aspects techniques, les questions de société sont débattus par ailleurs.
À la Chaire, nous nous intéressons forcément à l’impact de ces technologies sur l’enseignement secondaire : dans le contexte du projet AI4T, en particulier avec le manuel ouvert, ou du GTnum Éducation ouverte et Intelligence artificielle nous discutons beaucoup avec nos partenaires internationaux, ceux des rectorats et du ministère de l’Éducation nationale, ou tout simplement avec les enseignant·es.
Nous avons écrit comment il convenait de séparer les enjeux de l’évaluation de ceux de la pédagogie et, sur ce blog, avons commencé à expliquer comment s’initier à l’art du prompt.
Mais sur l’enseignement supérieur, nous n’avions rien dit. Les questions et enjeux sont en partie similaires à ceux du secondaire, mais l’âge des étudiant·es et les manières d’évaluer sont quand même très différents.
Si des grandes universités anglo-saxonnes avaient déjà pris des positions (parfois extrêmes, cf. Université d’Oxford, Harvard), il y avait peu de choses dans le monde francophone. C’est pour cela qu’il convient de regarder avec attention l’ensemble de ce que nous propose aujourd’hui l’Université de Genève.
Tout d’abord, un document de politique générale qui dit des choses très sensées : l’Université prend acte que ces technologies vont être utilisées par l’ensemble des acteurs de l’enseignement supérieur. Que ces technologies sont encore imparfaites mais vont continuer à se développer. Qu’il faut prévoir des formations en direction de tous et toutes : enseignant·es et collaborateurs, mais aussi étudiant·es. Et que l’Université va proposer ces formations. L’Université de Genève analyse également les conséquences sur le contrôle des connaissances (et des compétences) en proposant 3 scénarios stratégiques : le cas où les IA n’ont pas d’influence ; celui où il faut bien se rendre compte qu’avec ces technologies, les évaluations n’ont plus de sens ; un troisième scénario dans lequel ces technologies offrent la possibilité d’évaluer autre chose, autrement.
Le paragraphe suivant me paraît essentiel et je le reproduis donc verbatim :
Une totale transparence quant à l’utilisation des outils d’IA dans les travaux académiques est formellement attendue à travers un usage approprié des règles de citation. Celles-ci peuvent être accompagnées d’une description de la méthodologie employée pour réaliser le travail avec l’appui de l’outil d’IA.
En effet, un enjeu majeur (et non trivial) est celui de la transparence : de la même façon qu’on cite ses sources, il convient de bien indiquer qu’on a utilisé l’IA dans un travail, et comment on l’a utilisée.
Des recommandations précises viennent terminer ce document. Là aussi, des choses très sensées qui doivent pouvoir devenir une feuille de route.
Un second document est proposé par l’Université de Genève : une collection de ressources concernant ChatGPT et l’enseignement supérieur. Avec un choix audacieux : celui de ne pas limiter ces ressources à la langue française, prenant acte que c’est aujourd’hui en langue anglaise qu’on va trouver la majorité des discussions.
Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.