[#3] REL·AI du Web

Image par Gerd Altmann de Pixabay


L’IA pour corriger les copies ?

Photo de Andy Barbour sur Pexels

La correction d’exercices est une tâche souvent qualifiée de chronophage et d’inintéressante par les enseignant.es. Une correction idéale semble devoir répondre à des critères d’impartialité et d’équité, parfois difficiles à satisfaire dans des conditions réelles. Certain.es enseignant.es privilégient des QCM, qui permettent d’allier équité et rapidité de correction. Malheureusement, les QCM ne permettent pas toujours d’évaluer aussi précisément que les questions ouvertes.

Un champ de recherche, nommé “short answer grading”, s’intéresse à la correction automatique de réponses courtes. Le processus est le suivant : sur la base de la question et de quelques réponses d’élèves corrigées par l’enseignant.e, le système doit être capable de corriger les autres copies. On évalue alors le système sur sa capacité à prédire la note qu’aurait effectivement attribuée l’enseignant.e.

D’importants progrès ont été faits dans ce domaine, notamment grâce à des algorithmes d’apprentissage automatique entraînés sur de très gros corpus textuels (cf. des modèles tels que BERT ou GPT-3). Certain.es chercheur.es affirment être capables de reproduire l’évaluation humaine. Dans le domaine de l’éducation, certaines plateformes comme Moodle proposent déjà ce type de systèmes.

Si ces derniers semblent bien fonctionner sur des réponses classiques d’étudiant.es, un article récent montre qu’il est possible de tromper ces systèmes avec quelques astuces simples.
Lorsqu’on sait que 70% à 86% des étudiant.es déclarent avoir déjà triché durant leurs études, cela soulève une question sur la qualité des corrections proposées par ces outils. Cela est d’autant plus problématique que les réponses des “tricheurs” ne sont pas facilement détectables pour un.e correcteur.rice humain.e.



En parlant d’étudiant.es qui trichent…

Photo de RODNAE Productions sur Pexels

…l’intelligence artificielle pourrait leur permettre de le faire, par exemple grâce à des outils pour rédiger leurs devoirs, comme nous pouvons le lire dans cet article.
Ce qui est intéressant est que les étudiant.es viennent aussi des filières technologiques ! À contraster cependant avec des articles, plutôt en anglais, qui viennent expliquer que ce n’est pas une mauvaise chose : il s’agit surtout pour les enseignant.es de se demander ce qu’on veut que les étudiant.es apprennent à faire. Et de prendre l’exemple des tables de logarithmes (eh oui, certain.es s’en rappelleront) : avec l’arrivée des calculatrices, ces tables, utilisées pour “extraire un logarithme”, sont devenues immédiatement obsolètes. Au grand dam de certain.es enseignant.es qui voyaient dans l’apprentissage de l’usage de ces tables une connaissance à acquérir. Jusqu’à ce qu’ils/elles comprennent que celle-ci n’était pas si précieuse que ça.



“Libérons la culture”, vu par la FNAC

Depuis le mois de juin, une campagne publicitaire de la FNAC, intitulée “Libérons la culture”, est diffusée au travers de plusieurs médias et supports (TV, Youtube, affiches, etc.).
Les objectifs de l’entreprise : dénoncer les “algorithmes qui conditionnent nos choix et nous enferment dans des bulles” ; affirmer son engagement pour une pluralité culturelle et une remise de la technologie “à sa juste place” ; promouvoir un nouveau modèle plaçant les conseils des humains (vendeur.euses) au cœur de l’expérience client.
Les slogans de la campagne sont par exemple : “Pour parler de culture, mieux vaut avoir un cœur qu’un processeur.” ; “Vous avez déjà eu un débat passionné avec un algorithme ?” ; “Un algorithme ne peut pas aimer ce qu’il vous recommande.”.
Par ailleurs, pour conserver un lien humain lors du parcours d’achat, à partir de la page contact du site de la FNAC, il est possible de discuter (en visio ou par chat) avec un.e vendeur.euse pour avoir un conseil sur un produit.

Cette campagne peut interpeller, notamment à la lecture des informations suivantes :

  • sur le site de l’entreprise, des algorithmes de recommandation sont utilisés pour influencer les client.es, les inciter à l’achat ;
  • selon AOF, au premier trimestre 2022, “les ventes en ligne représentent 22% du chiffre d’affaires du groupe, en hausse de 4 points par rapport au niveau pré-crise” ;
  • le groupe FNAC DARTY vise, d’ici 2025, à renforcer “la performance des sites avec une expérience web toujours plus immersive, efficace et nourrie d’intelligence artificielle.“, y dédier “50% de l’enveloppe des investissements du Groupe” et à atteindre “au moins 30% du chiffre d’affaires du Groupe sur le web” (cf. communiqué).


Inspecter l’état d’un véhicule, grâce à l’IA

Capture écran issue du site https://fr.proovstation.com/station-rental

La startup ProovStation propose un système de détection des dommages d’un véhicule, en partie basé sur l’IA. D’après les informations trouvées sur le site, le traitement par IA consiste à localiser, identifier et classifier automatiquement les dommages sur la carrosserie et les jantes (rayures, bosses, etc.) de tout véhicule. Il est également précisé qu’un entraînement continuel de leur IA est effectué, afin que les résultats ne soient pas trop affectés lorsqu’un véhicule n’est pas totalement propre et sec.

Cette technologie ne semble pas nouvelle, car d’autres entreprises telles que WeProov proposent ce type d’outils, à destination de loueurs, transporteurs, etc.

Néanmoins, ce qui semble inédit avec ProovStation est qu’ils commencent à installer des portiques sur des parkings de supermarchés, à usage du grand public. Les promesses : que chaque automobiliste puisse réaliser une évaluation de l’état de son véhicule et estimer son prix de rachat, en quelques minutes et sans rendez-vous.



Une IA qui vous dit si les choses sont de gauche ou de droite

Début octobre, le hashtag #CestDeGaucheOuDeDroite s’est fait une petite réputation sur Twitter.
Ce bot, également disponible sur le site https://degaucheoudedroite.delemazure.fr/ (et en application Android), permet aux utilisateur.rices de tester une IA pour savoir « Si des choses sont de gauche ou de droite ». Il vous suffit en effet d’entrer un mot ou une phrase, et le bot ou le site vous dira si cette chose est de gauche ou de droite (ou parfois les deux).
Ce hashtag, davantage à but humoristique que comme outil de décision, a été utilisé par de nombreuses personnes, dont quelques figures politiques.

Alors comment ça marche ? Nous savons peu de choses sur ce modèle créé par Théo Delemazure, un doctorant en informatique à l’Université de Paris Dauphine.

Un modèle pré-entraîné donc, auquel on a donné quelques « exemples consensuels » pour le guider. Comme attendu, le résultat n’est pas d’une précision redoutable, bien que son efficacité relève bien sûr de votre avis subjectif. Ce qui a poussé Théo Delemazure à associer à son modèle un système de vote proposant aux utilisateur.rices de dire s’ils sont « D’accord ou pas d’accord » avec la proposition de l’IA. On ne sait pas exactement comment ces réponses sont intégrées au modèle, mais il est amusant de constater que les données d’apprentissage « consensuelles » deviennent des éléments soumis au vote de la communauté, qui décidera des poids à associer aux concepts proposés.

Alors, d’accord ou pas d’accord ?

Merci à Victor, Andréane, Mélanie et Bastien pour les contributions à la rédaction de cet article !


Licence Creative Commons

Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.