Pendant que les enseignant·es réfléchissons à l’impact des IA génératives, les étudiant·es se sont emparé du sujet et n’hésitent pas à utiliser ChatGPT. Comment ? Dans le contexte de son mémoire de Master (Master Cultures numériques à Nantes Université), Selma El Babarti a interrogé les étudiant·es de Nantes Université. Son mémoire n’a pas la prétention d’être exhaustif sur un sujet complexe mais nous offre déjà des réflexions intéressantes et inattendues sur les différentes manières que peut trouver un·e étudiant·e pour utiliser l’IA dans le contexte de ses activités. Une version longue, en anglais, de ces réflexions est consultable et téléchargeable au bas de cette page.
Les analyses de cet article nous paraissent très pertinentes et nous questionnent : comment mieux accompagner les étudiant·es pour que leur usage de ces technologies soit utile, mais surtout effectué en sécurité ?
ChatGPT, une assistance intégrée comme méthode de travail à part entière chez les étudiant·es…
Les étudiant·es tirent des avantages pédagogiques de ChatGPT, en l’utilisant notamment pour la rédaction de leurs travaux écrits : re/formulation de leurs phrases, correction de leur orthographe, traduction, génération des idées en faveur d’une argumentation ou encore génération de plans.
Les profils plus techniques reconnaissent également ses applications techniques spécifiques, notamment pour le codage et débogage, aux dépens d’une utilisation moins fréquente de forums en ligne tels que StackOverflow.
…qui dépasse parfois le contexte académique
Certain·es étudiant·es explorent des applications de ChatGPT qui transcendent les limites traditionnelles du milieu académique, trouvant de la valeur dans les interactions plus personnelles et intimistes que permet cette technologie. Au-delà de l’aide aux devoirs et à la recherche, ils embrassent la capacité de ChatGPT à simuler une présence humaine réconfortante, le transformant en une sorte de confident·e numérique, voire même de psychologue, à qui l’on pourrait se confier et s’exprimer sans jugement.
Cette tendance révèle une facette intéressante de la relation Homme-machine, où les frontières entre les interactions humaines et artificielles commencent à s’estomper, offrant de nouvelles perspectives sur le potentiel des technologies IA pour enrichir la vie quotidienne au-delà des applications pratiques.
Des perceptions de ChatGPT façonnées par la notion de confiance
L’accent est également mis sur les perceptions de ChatGPT par les étudiant·es en abordant les notions de confiance et de tricherie. La confiance, telle qu’elle est décrite par les étudiant·es, est une évaluation de la fiabilité des réponses fournies par ChatGPT par les étudiant·es. Cela représenterait un « degré de nécessité » de vérifier les réponses fournies par celui-ci. Ce degré varie selon les tâches que les étudiant·es effectuent avec l’outil : s’il s’agit d’une tâche relative à un travail de rédaction (syntaxe, choix du vocabulaire, etc.), ce degré de nécessité est faible puisque les étudiant·es s’estiment capables de corriger et modifier ce qui en ressort par leurs propres moyens. Ce degré s’avère plus élevé lorsqu’il s’agit pour les étudiant·es de vérifier des informations relatives à des concepts ou notions nouvellement acquis en cours et avec lesquels ils/elles ne se sentent pas à l’aise. Dans ce second cas, ils/elles deviennent plus sceptiques quant aux réponses fournies par ChatGPT et décrivent ce degré de nécessité de vérifier comme plus élevé.
La confiance est présentée comme un facteur clé dans l’adoption de cette technologie, influençant directement la manière dont les étudiant·es l’utilisent comme un outil d’apprentissage et de soutien académique. Ce focus sur la confiance vise à encourager une réflexion sur l’intégration responsable de l’IA dans les processus éducatifs, en reconnaissant la nécessité d’une guidance et d’une éducation des personnes pour une utilisation éthique et efficace de ces outils.
La triche : une définition perturbée par l’évaluation continue
Les étudiant·es révèlent une perception nuancée de ce que constitue la tricherie dans un
environnement académique de plus en plus numérisé. Ils/elles distinguent deux principales formes de tricherie :
- l’une liée au dépassement d’un cadre clairement défini, comme l’utilisation de matériaux non autorisés lors d’examens (et liée à une forme d’évaluation impliquant des devoirs à réaliser à la maison et amenant ainsi les murs de l’école au sein du domicile de l’étudiant·e) ;
- l’autre associée à un manque de réflexion critique : par exemple, l’emprunt non critique d’idées ou l’échec à se réapproprier des concepts.
Cela forme une zone grise croissante entre les pratiques autorisées et celles considérées comme de la tricherie, exacerbée par le passage à des évaluations continues et l’utilisation accrue d’outils numériques, y compris ChatGPT.
Cette évolution remet en question les règles traditionnelles et introduit une complexité supplémentaire dans la définition de la tricherie, notamment avec l’émergence du plagiat comme forme de tricherie. Le plagiat est traditionnellement compris comme l’appropriation immorale d’un texte sans attribution correcte, mais l’utilisation de ChatGPT pour générer du texte pose la question de savoir si la reprise des textes produits par l’IA peut être considérée comme tel.
Une zone grise entre le bluff et l’interdit
Les étudiant·es opèrent dans cet espace légal incertain, utilisant ChatGPT de manière à ce que cela reste invisible dans leurs rendus, dans l’espoir que ce ne soit pas détecté par les enseignant·es. Cette situation est comparée à un jeu de poker où l’utilisation non réglementée de ChatGPT devient un pari sur l’invisibilité de son utilisation : tout comme le bluff n’est pas interdit au poker, le tout est de savoir correctement poser ses cartes.
La tricherie n’est donc pas vue comme un concept fixe mais plutôt comme un continuum, avec le plagiat à une extrémité et les contributions purement originales des étudiant·es à l’autre. Les étudiant·es naviguent dans cet espace, cherchant à équilibrer l’utilisation de ChatGPT avec leurs propres contributions pour éviter de franchir la ligne rouge. Toutefois, ils et elles reconnaissent que cette ligne de conduite reste sujette à interprétation et que ce qu’ils/elles considèrent comme une utilisation légitime peut être perçue comme de la tricherie par les enseignant·es.
Cela invite donc à une réflexion plus large sur l’intégration responsable de l’IA dans l’éducation, soulignant la nécessité d’une utilisation éclairée et critique des technologies numériques dans le parcours d’apprentissage des étudiant·es.
Liberté d’expression, indépendance
Les approches et opinions exprimées sur ce site n’engagent que la Chaire RELIA et ne reflètent pas nécessairement celles de Nantes Université et de l’UNESCO.
Licence
Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.
Poster un Commentaire