Le projet AI4T s’est réuni à Ljubljana du 18 au 20 mai. Au menu, les réunions normales d’un projet européen ambitieux.
Mais avant cela, le premier jour, un workshop intitulé “idées”. Pour échanger sur différentes questions qui n’ont pas encore de réponse claire concernant la formation des enseignant.es à l’intelligence artificielle.
Rappelons que le projet AI4T regroupe 5 pays (le Luxembourg, la Slovénie, l’Irlande, l’Italie et la France) et entend apporter une réponse collective à une question qui devient de plus en plus importante : comment former les enseignant.es face à l’arrivée de l’IA dans le secteur de l’éducation ?
La réponse doit être apportée de 3 façons :
- en préparant le matériel pédagogique adapté : celui-ci doit pouvoir être utilisé de façon hybride : en auto-formation et à travers des ateliers ;
- en testant ce matériel à grande échelle, dans les 5 pays ;
- en rendant compte de ce déploiement, c’est-à-dire en évaluant scrupuleusement la formation et ses résultats.
Dans l’atelier qui a réuni plus de 20 personnes, les 5 sujets suivants ont été abordés :
- l’intelligence artificielle et le genre ;
- la question de l’enseignement des langues ;
- l’IA et l’évaluation ;
- l’IA et l’ouverture ;
- l’IA et les Learning analytics.
Sur le premier sujet, nous avons analysé les différents débats en cours : pourquoi les assistants virtuels sont des assistantes ? Pourquoi les traductions automatiques renforcent-elles les biais de genre ? Comment éviter que l’IA de demain ne soit créée que par des hommes ?
L’enseignement des langues est un sujet crucial. En fait, c’est peut-être là que l’IA a déjà un effet fort. Nous avons travaillé avec des enseignant.es d’anglais, d’espagnol, d’allemand, et noté leurs difficultés. Elles semblent être aujourd’hui de 3 ordres :
- une difficulté à faire travailler : l’utilisation de DeepL ou de Google Translate semble être devenue la règle générale. Comment ne pas être découragé.e ?
- une difficulté à examiner, en particulier dans des scénarios à distance ;
- une difficulté à motiver les élèves.
L’évaluation peut être sommative ou formative. On dit qu’elle est sommative quand elle sert à donner une note à l’élève, note qui s’inscrira dans son carnet, son dossier, son suivi. Si l’évaluation sert principalement à l’élève pour savoir comment il/elle progresse, on dit qu’elle est formative. Dans l’atelier, ces deux aspects ont été discutés et la conclusion est que si l’évaluation formative par intelligence artificielle peut faire sens, actuellement, utiliser l’IA pour noter les élèves est une mauvaise idée.
L’ouverture et l’intelligence artificielle se marient bien. Pour que l’IA s’exerce, il faut des données. Et il faut que ces données puissent servir. Et il convient alors de séparer les données “connaissance” des données personnelles. S’il y a un enjeu pour les données personnelles – et il est indispensable de former les enseignant.es à cela -, pour les données de contenu (des cours, des séquences pédagogiques, des exercices, corrigés ou non), il faut pouvoir partager.
Les Learning analytics sont un des grands espoirs de l’intelligence artificielle pour l’éducation. À travers elles, on espère bien pouvoir savoir ce que font les élèves, ce qu’ils/elles apprennent.
Et le dernier sujet était l’IA et le genre. Beaucoup de préjugés peuvent être transmis par les données à l’IA. Faut-il/peut-on rendre cela transparent ? L’IA peut-elle apporter des changements positifs à l’égalité des genres ou est-elle une menace ? Comment accroître la participation des femmes dans le domaine de l’IA ? Certains de ces problèmes sont plus généraux que ceux de l’IA. Les écoles, la famille, la société et les médias sont tous responsables. L’IA prend des modèles de la société qui ont des stéréotypes. L’IA peut montrer qu’il y a un souci. Mais l’IA n’est pas seulement un miroir, c’est une lentille.
Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.