Mettre en pause le développement des IA ?

Photo de Ekam Juneja sur Pexels.

[Depuis que j’ai signé la pétition du Future of Life Institute, j’ai répondu aux sollicitations de plusieurs journalistes mais -et je le comprends bien- les explications qui ont été publiées restent partielles et incomplètes. Dans l’article ci-dessous, j’essaie de donner un raisonnement plus complet.]

Ce mercredi 29 mars, le Future of Life Institute a rendu publique une pétition en faveur d’un moratoire de 6 mois sur les systèmes d’intelligence artificielle à base de grands modèles de langage (Large Language Models). Le texte a été rendu public quelques heures plus tard et a entraîné, depuis, une cascade de réactions médiatiques.

De quoi parle-t-on ?

Il est difficile de résumer le texte de la pétition tant il est riche. Trop, sans doute. Assez pour y trouver des failles, des raisons pour trouver un sujet de désaccord. Pour simplifier, les signataires s’inquiètent (ou plutôt, nous nous inquiétons) d’une accélération des lancements de nouveaux outils d’intelligence artificielle (IA), basés sur des technologies qui ne seraient pas assez contrôlées et dont les effets sur la société (en réalité, le terme employé est civilisation) sont trop dangereux pour que le calendrier nous soit dicté par quelques géants de la Tech. La demande est que ces géants cessent d’expérimenter pendant 6 mois, pour laisser le temps de réfléchir et de proposer, si nécessaire, des garde-fous.

Qui propose ce texte ?

C’est toujours un sujet important : les premiers signataires sont, dans l’ordre, Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Yuval Noah Harari. Dans l’ordre, un des trois chercheurs primés avec le Turing Award pour ses découvertes concernant l’apprentissage profond, l’auteur du livre de référence en intelligence artificielle, le patron de Twitter et de Tesla, le co-fondateur d’Apple et l’auteur de « Homo Deus » entre autres.

Le texte est porté par la plateforme Future of Life Institute. Il s’agit d’un regroupement multidisciplinaire de chercheur.es qui s’intéresse à de nombreux sujets, dont l’éthique de l’IA. En particulier, ils/elles promeuvent les principes d’Asilomar, qui sont 23 règles éthiques qui suivent le modèle des 3 lois de la robotique proposées il y a déjà 80 ans par Isaac Asimov pour les robots. Pour être complet, disons que le Future of Life Institute est financé sur donations et Elon Musk a été un donateur très généreux.

À titre personnel, j’ai lu plusieurs des textes produits par ce groupement et je voue une grande admiration à Yoshua Bengio et Yuval Harari ; je reste persuadé que Homo Deus est le meilleur livre pour comprendre l’intelligence artificielle.

Pourquoi ai-je signé ?

J’ai signé très vite le texte : après l’avoir lu, regardé quand même la liste des proposant.es, compris que la présence de Musk allait sans doute poser problème. Mais la proposition rejoignait vraiment ma réflexion du moment. Donc c’est sans hésiter que j’ai signé.

Voici les 3 principales raisons :

L’après-midi même, j’avais donné un cours dans le Master « Leadership in Open Education » de Nova Gorica (Slovénie). Un Master à distance et des étudiant.es de différents pays. On m’avait demandé d’intervenir sur l’éthique en intelligence artificielle pour l’éducation. Un sujet passionnant. Sur lequel j’ai été mis en difficulté par ces élèves. À plusieurs moments, j’ai réalisé que je répondais en fonction de ma réflexion du mois de février. Or, depuis, de nouveaux objets technologiques avaient été produits et cela modifiait certaines choses, certaines analyses : les capacités nouvelles de GPT-4 rendaient caduques des réflexions concernant les limitations de GPT-3 ; la possibilité d’individualiser son ChatGPT ajoutait de nouvelles complexités à la question des biais… Cela va trop vite.

Un second sujet de préoccupation : je suis surpris beaucoup trop fréquemment. Après chaque développement technologique de ces dernières semaines, je me surprends à être surpris. Des développements technologiques avec cette vitesse de transformation… je ne suis pas certain que nous en ayons connu d’autres. On peut penser à l’imprimerie, l’électricité, le moteur à explosion. Mais dans ces cas, la société avait le temps de s’adapter ! Si Gutenberg invente l’imprimerie en 1450, le premier livre est produit en 1454 ! Cela laisse du temps pour réfléchir. Et ces surprises continues font qu’il est difficile de se faire une raison. Il est compliqué de remettre en cause continuellement ses lignes directrices éthiques sans s’interroger.

Un troisième argument est que parmi les différents arguments énoncés dans le texte, l’un m’a paru déterminant : « Should we automate away all the jobs, including the fulfilling ones? » (Devons-nous automatiser tous les métiers, y compris ceux qui épanouissent ?). Autrement dit, ce qui semble se dessiner depuis plusieurs semaines est que des professionnels qui ont choisi leur métier, des jeunes en formation qui aimeraient s’épanouir dans ce métier, des encore plus jeunes qui aimeraient que ce métier existe quand ils/elles auront atteint l’âge de travailler, toutes et tous sont aujourd’hui menacé.es par ces technologies. Et parmi les métiers sur lesquels plane une interrogation toute nouvelle, on découvre des métiers créatifs -à dominante “cols blancs” : designers, enseignant.es, journalistes, architectes, informaticien.nes…

Il convient de bien comprendre que l’enjeu d’une IA qui supprime des emplois pose déjà un problème. Et la distinction entre “métiers qui épanouissent” et “métiers qui n’épanouissent pas” peut sembler réductrice : il est possible de s’épanouir dans à peu près tous les métiers et il y a certainement des journalistes et des enseignant.es qui s’ennuient terriblement. Ce qui me paraît néanmoins nouveau est qu’une quantité importante de métiers choisis, certes tous du domaine plutôt intellectuel, dans lesquels les individus trouvaient du plaisir, du bonheur (et non seulement un salaire de fin de mois) allaient se retrouver inaccessibles.

Bien entendu, le discours consensuel -que j’ai également tenu- est que ces outils vont faciliter la vie des professionnels, permettre à ceux-ci de se concentrer sur ce qui est réellement important et intéressant et laisser la machine s’occuper du reste, de la partie pénible, des aspects syntaxiques, de ce qui ne demande pas de créativité. Or, j’avoue, je commence à douter de ce discours. Dans un contexte libéral, nous avons plutôt toutes les chances de trouver face à face des technologies qui, pour pouvoir trouver un marché, vont devoir expliquer comment elles peuvent permettre des économies, et des entreprises ou des pouvoirs publics qui verront facilement l’effet d’aubaine permettant de diminuer la charge salariale pour un résultat qui paraît équivalent.

Une analyse récente du cabinet Goldman Sachs donne 3 chiffres : les IAs pourraient remplacer 18% du travail humain entraînant 300 millions d’emplois qui pourraient disparaître, pour un gain de PIB mondial annuel de 7%. Autrement dit, l’impact peut être conséquent.

Le cas de l’éducation

Dans le cas de l’éducation, avant même les outils d’OpenAI, de nombreuses entreprises de l’EdTech ne proposaient pas leurs produits comme compléments à l’éducation mais bien comme des acteurs de celle-ci, susceptibles de remplacer les enseignant.es.

Or, l’éducation n’échappe pas aux règles du productivisme : des chiffres existent pour mesurer le succès d’une politique éducative. Dans certains pays, les écoles, collèges, lycées, universités ont des objectifs chiffrés à atteindre. Et les établissements vont les transmettre aux enseignant.es. Cette politique conduit immanquablement certaines personnes à courir derrière les chiffres, à faire en sorte que ces chiffres ne mesurent plus le succès, mais soient l’objectif à atteindre.

Et l’éducation n’est plus un champ d’application parmi d’autres. L’arrivée en trombe de GPT-4, il y a quelques jours, s’est accompagnée d’une communication où les résultats sur des examens (entrée au barreau aux États-Unis, sur une copie de Polytechnique, etc.) ont été mis en avant. L’éducation comme simple bench de l’intelligence artificielle. C’est triste et dangereux.

Et enfin, la démocratie

Si l’on peut ne pas être d’accord avec les scénarios un peu trop catastrophistes présentés dans la pétition, il y a un point de danger qui mérite d’être souligné. L’une des raisons principales d’être de la démocratie est que ce soient les citoyen.nes qui fassent les grands choix de société.  Or en ce moment, c’est loin d’être le cas. Les transformations probables de la société liées à cette IA ne sont pas voulues, ni même accompagnées, par la volonté des citoyen.nes ou de leurs représentant.es élu.es.

Et nous avons toutes les chances alors que ceux-ci se retrouvent devant le fait accompli, à chercher à légiférer lorsque celles et ceux qui peuvent aller plus vite l’auront fait.

Un moratoire de 6 mois… Est-ce réaliste ? N’est-ce pas une façon de permettre à des concurrents (entreprises, pays) de se repositionner ?

C’est une question raisonnable. Et pour laquelle je ne suis pas certain de savoir apporter une réponse qui satisfera celles et ceux qui veulent des solutions concrètes. Je ne sais pas si 6 mois sont assez. J’ai la naïveté de croire que la question n’est pas très différente en Chine ou ailleurs, et que ce sont des sujets que les grandes organisations internationales peuvent discuter sans nécessairement être bloquées par des problématiques nationalistes.

Je pense aussi qu’en moins d’une semaine, la pétition a permis au sujet d’être discuté, à de nombreuses personnes de regarder ces technologies comme plus que de simples gadgets. En somme, même sans le moratoire, signer la pétition aura été utile.

En signant cette pétition, nous étions peut-être surtout en train de lancer un message d’alerte : les développements récents de ces technologies posent problème. Je regarde la longue liste des signataires et j’y vois nombre de chercheur.es à la fois brillant.es et raisonnables. J’y vois également des ingénieur.es de l’intelligence artificielle. Et je suis certain que comme moi, ils/elles n’ont pas songé à l’aspect pratique de la mesure, mais bien au besoin de faire réfléchir.

Oui, nous avons besoin de temps, de laisser à la société civile la possibilité de regarder autre chose qu’un train qui passe. Il faut trouver le temps d’analyser des problèmes qui ne sont pas techniques, mais de société :

  • Comment éviter une confusion encore plus grande entre le vrai et le faux ? Nous interrogeons déjà ChatGPT sur tous les sujets, mais nous connaissons aussi les limites : si la qualité textuelle de la réponse est généralement bonne, sa qualité factuelle reste un sujet de controverse.
  • Comment éduquer à ces questions ? (former les enseignant.es, puis les jeunes… ça prend beaucoup de temps)
  • Comment gérer les questions d’éthique qui apparaissent au quotidien ?

Donc oui, il faudrait pouvoir freiner et cesser de sortir des innovations qu’on ne contrôle plus.

Est-ce qu’une pause se ferait à nos dépens et à l’avantage de concurrents ? Peut-être. L’argument a été utilisé sur d’autres grands sujets : le nucléaire, la décarbonation de l’industrie. Et nous avons su trouver des solutions.

Tout arrêter ?

Non, tous les systèmes d’intelligence artificielle ne sont pas à bannir, loin de là. Aujourd’hui, l’intelligence artificielle est déjà mise au service des objectifs de développement durable : une agriculture plus propre sera peut-être possible grâce à l’ajustement des quantités d’eau ou d’engrais ; une médecine plus précise se dessine, aidée par une IA qui sait utiliser les données efficacement ; des catastrophes naturelles peuvent être anticipées, des zones de pauvreté peuvent être analysées grâce à l’analyse automatique des photographies aériennes.

Et, peut-être avec surprise, nous voyons aussi comment, avec l’aide de l’intelligence artificielle, notre monde est en train de devenir multilingue et multiculturel.

Licence Creative Commons

Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.