[#5] REL·AI du Web

Image par Gerd Altmann de Pixabay

Nous poursuivons cette série d’articles en nous focalisant, aujourd’hui, sur des informations liées à l’intelligence artificielle. Avant de commencer votre lecture, si vous avez besoin de quelques rappels de définition sur les LLM (grands modèles de langage), les prompts, les hallucinations, les données d’apprentissage, etc., vous pouvez jeter un œil à cet article de la BBC.


  • Peut-on s’improviser écrivain·e grâce à ChatGPT ? C’est ce qu’a voulu expérimenter la maison d’édition Edilivre en lançant le 1er concours de nouvelles écrites avec l’aide de l’IA. À première vue et malgré les quelques prérequis imposés par le concours, cela semble simple et pourrait même se faire en un temps record. Mais peut-être pas aussi évident qu’on pourrait le croire !
    Les textes produits par ChatGPT sont en effet perçus comme froids, trop techniques, trop parfaits. L’idée pour la maison d’édition était surtout de tester, sans doute aussi de démystifier l’outil dans un milieu un peu réfractaire et de montrer finalement qu’il est une aide précieuse, notamment dans la recherche d’idées, mais qui ne peut toutefois pas produire un texte réellement convaincant sans l’intervention de l’humain.
  • La Foire du Livre de Francfort, « évènement majeur de l’édition », a suscité de nombreux débats sur l’arrivée de l’IA dans le monde de la création littéraire. Quand certaines personnes, comme Salman Rushdie, ont pour l’instant peu d’inquiétudes sur le fait qu’une IA puisse remplacer un·e auteur/autrice et son style propre, d’autres s’alarment sur la question des droits d’auteur, et notamment sur l’utilisation de leurs textes pour entraîner l’IA. Ils/elles s’indignent que leurs écrits servent de « nourriture [aux] systèmes d’IA » et soulèvent la question des droits d’auteur sur les textes ensuite produits par cette IA.
  • L’entraînement du modèle de langage de ChatGPT à partir de livres et textes d’auteurs est encore ici au centre des débats. L’auteur de “Game of Thrones” et plusieurs autres écrivains ont notamment porté plainte contre OpenAI. Ils dénoncent une utilisation des œuvres sans leur permission mais également un « manque à gagner » puisque les IA, en permettant de générer des textes, diminuent la demande auprès des auteurs et, de fait, les droits qui en découlent.
    Des plaintes similaires ont également eu lieu contre les IA génératives d’images, entraînées elles aussi à partir d’œuvres visuelles protégées par le droit d’auteur.
  • Pour contrer la montée des contenus générés par des IA et garantir la qualité des œuvres, une maison d’édition s’associe avec Label Création Humaine pour introduire un nouveau label. Ce dernier certifie que les livres ont été authentiquement écrits par des auteurs/autrices humain·es, offrant ainsi une assurance contre les erreurs factuelles souvent présentes dans les contenus produits par des intelligences artificielles.
  • Adobe et d’autres entreprises ont introduit un symbole, l”icône de transparence”, destiné à être apposé sur le contenu aux côtés des métadonnées. Cette initiative vise à certifier l’origine du contenu, y compris son élaboration avec des outils d’intelligence artificielle. Cette icône peut être ajoutée via les plateformes de retouche d’Adobe et, à terme, par le générateur d’images Bing de Microsoft. Elle offre aux personnes utilisatrices des informations détaillées sur la propriété du contenu, l’outil d’IA utilisé et d’autres détails, renforçant la transparence dans la création de médias.

Image de Freepik
  • Voici un article déjà ancien qui interpelle : en août 2023, le journal The Guardian rapportait qu’une large étude en Suède montrait qu’une IA obtenait de meilleurs résultats à l’analyse de radiographies du sein que deux radiologues. Les détails sont importants. Le nombre de faux positifs -toujours un enjeu- est comparable, mais pour un nombre de vrais positifs (de détections) significativement meilleur. Il s’agit cependant de faire attention car certain·es expert·es avancent que ces progrès pourraient être dus à la sur-détection de lésions bénignes.
  • Les résultats favorables de l’IA dans le secteur médical sont de plus en plus fréquents. Un article de France 3 s’intéresse au cas du CHU de Rennes où l’IA est déjà utilisée aux urgences et permet de réduire de 30% les temps d’attente par une aide à l’examen de radiographies de fractures, mais aussi dans l’analyse des images liées au cancer de la prostate.


Image de Freepik
  • « Respire un grand coup et procède étape par étape ». Voici une phrase à ajouter à vos prompts si vous souhaitez améliorer la qualité des réponses produites par votre IA générative préférée. Surtout s’il s’agit de problèmes mathématiques ou de raisonnement logique. Alors on vous rassure, l’IA n’est pas vraiment sensible aux encouragements. Mais ces phrases ont bien un impact sur ses résultats, car elles orientent le modèle vers des données d’apprentissage dans lesquelles les démonstrations sont plus détaillées (comme les forums ou les sites de résolution de problèmes), limitant légèrement les hallucinations, car le modèle va détailler par étape plutôt que de proposer une réponse synthétique.
    Pour plus de détails, voir cet article et celui sur lequel il se base.
    Et, en parlant d’amélioration des prompts, connaissez-vous le métier d’ingénieur·e de requête ?
  • Peut-être une piste d’optimisation pour les modèles, afin de limiter leur consommation en énergie et en données. L’entraînement des modèles étant très consommateur d’énergie, tout comme l’hébergement des données produites (images, textes, vidéos…), Alexandra Sasha Luccioni, Yacine Jernite (Hugging Face) et Emma Strubell (Carnegie Mellon University) ont réalisé en novembre dernier une étude comparative permettant d’y voir un peu plus clair sur l’impact environnemental de l’intelligence artificielle. 

  • Commençons d’abord cette section avec le guide d’OpenAI (version française ici) destiné aux personnes enseignantes afin d’intégrer ChatGPT dans leurs méthodes d’enseignement. Le guide aborde notamment son utilisation dans divers contextes tels que le jeu de rôle, la création de quiz, l’assistance aux non-anglophones et l’enseignement de la pensée critique. De plus, des prompts sont proposés notamment dans le but de créer des plans de cours ou encore un tuteur IA.
  • Nous poursuivons avec une information pour celles et ceux qui souhaiteraient assister à une formation en ligne dédiée à l’utilisation de ChatGPT en contexte universitaire. Ces évènements, gratuits, ouverts à toutes et à tous sur inscription, sont dispensés par l’Université de Québec, à Montréal. Prochaines sessions les 13 mars et 11 avril prochain !
  • Enfin, vous avez des difficultés à vous y retrouver parmi tous les plugins et les IA génératives dédiés à l’enseignement ? Nous avons dégoté une liste des “meilleures technologies GPT pour apprendre et étudier” par le site whatplugin.ai. Alors prêt·es pour des découvertes toutes plus variées les unes que les autres ?

Image de storyset sur Freepik

Nous l’avons vu, l’intelligence artificielle de manière générale offre de nombreux potentiels, entre autres dans les domaines de la santé et de l’éducation. Mais l’IA, c’est aussi des outils et des réalités qui interpellent…

  • C’est le cas d’outils tels que Rewind.AI. Ce logiciel enregistre toutes les activités sur et autour de votre ordinateur (textes, audios, vidéos) pour vous permettre d’y accéder ultérieurement. Il est présenté comme un assistant personnalisé auquel vous pouvez demander d’effectuer diverses tâches, poser n’importe quelle question sur votre passé numérique ou y rechercher vous-même une information (dans vos échanges écrits, audio ; dans votre historique de navigation Internet ; dans vos fichiers, etc.).
    Les arguments en faveur de Rewind : gains de temps, de productivité, ne plus perdre ou oublier une information, pouvoir conserver les bons souvenirs, etc.
    Ce logiciel soulève de nombreuses questions (juridiques, éthiques, sociales, etc.), détaillées et illustrées par exemple dans cet article. En complément et pour en savoir plus, vous pouvez aussi visionner cette vidéo de Léo Duff.
  • Un autre outil qui interpelle : sanas.AI. Les slogans que l’on peut trouver sur le site : “Hear the Magic”, “Sound Local, Globally”, “Your voice, Your choice”.
    Les promesses : “créer un monde plus connecté, convivial et empathique”, “révolutionner la communication”, “étape vers l’autonomisation des individus, la promotion de l’égalité et l’approfondissement de l’empathie”.
    En parcourant le site, nous apprenons que cet outil a été créé, initialement, pour aider un étudiant originaire du Nicaragua victime de préjugés liés à son accent, d’insultes et de discrimination. Selon les fondateurs, Sanas permettrait donc « de garantir que les gens du monde entier puissent reprendre le pouvoir de leur propre voix ».
    Mais le principe même de l’outil semble contradictoire avec ce qui est indiqué ailleurs sur le site : « Be you » et « Nous nous engageons à protéger les diverses identités vocales du monde et leurs cultures. ». Nous pouvons également nous interroger sur la portée d’un tel outil… La solution pour un monde plus empathique serait-elle donc d’invisibiliser ce qui dérange les personnes dénuées d’empathie ? Pour vous faire votre propre avis, voir https://www.sanas.ai/demo.
  • Enfin, un enjeu lié aux intelligences artificielles, malheureusement souvent ignoré, concerne la situation des étiqueteurs. Leur travail consiste à visionner et étiqueter des contenus divers, plus ou moins violents, issus des réseaux sociaux et d’Internet, pour les modérer et équilibrer les données d’apprentissage des intelligences artificielles.
    Les multinationales du web font appel à des sociétés telles que Sama pour effectuer ces tâches. Mais les conditions de travail des salarié·es sont matériellement et psychologiquement désastreuses. En 2023, un ancien modérateur de contenu a porté plainte, au Kenya, contre Sama et plusieurs multinationales. Pour la première fois, un juge kényan (Jakob Gakeri) a estimé “que les cours kényanes étaient compétentes pour juger des sociétés étrangères dont des filiales se trouvent au Kenya, ainsi que la responsabilité des donneurs d’ordre”. Il a également décidé de retenir la qualification de « traite d’êtres humains » pour décrire la situation des étiqueteurs. [*]

[*] Source : article de The Conversation, sous licence CC BY-ND, Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

Liberté d’expression, indépendance

Les approches et opinions exprimées sur ce site n’engagent que la Chaire RELIA et ne reflètent pas nécessairement celles de Nantes Université et de l’UNESCO.

Licence
Licence Creative Commons

Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*


*