« ChatGPT est incroyable, mais ça ne sert à rien ! »

« ChatGPT est incroyable, mais ça ne sert à rien ! » résume Daniel Goossens, chercheur en intelligence artificielle à l’université Paris 8 et auteur de bandes dessinées.   « C’est une prouesse mais pour quoi faire et à quels coûts ? », renchérit Nicolas Sabouret, docteur en intelligence artificielle, professeur en informatique à l’université Paris Saclay. « Avec ChatGPT, on a passé une étape, mais  pour quelle utilité ? »,  conclut  Laurence Devillers, professeure en intelligence artificielle à Sorbonne université.

Depuis quelques semaines, les articles autour de ChatGPT ne manquent pas. Et comme à chaque fois, lorsque de nombreux médias traitent de l’intelligence artificielle, les exploits sont survendus. On aime se faire peur.

Le logiciel ChatGPT est-il si révolutionnaire ?

« Bluffant », « époustouflant », voici les mots utilisés par  tous les  chercheurs interrogés. Ils sont étonnés, sidérés par les résultats obtenus par ChatGPT-3. « Nous avons testé un exercice d’algorithmes pour des étudiants en 1er année d’ingénieur, raconte Nicolas Sabouret. ChatGPT a mieux réussi que tous les étudiants. Il n’y a pas mieux pour intégrer les données et les synthétiser ».

Cependant, les spécialistes  m’ont tous confirmé qu’il n’y avait  aucune rupture technologique. Cette intelligence artificielle fonctionne grâce aux fameux  réseaux de neurones[1]. Nous sommes loin d’une intelligence artificielle forte[2] , autonome. « Ce sont des modèles de langage entraînés par un apprentissage profond sur une très grande base  de textes.  Ces modèles comportent un nombre de paramètres assez vertigineux : entre 100 et 1000 milliards de connexions », détaille Jean-Gabriel Ganascia, spécialiste en intelligence artificielle, professeur d’informatique à la faculté des sciences de Sorbonne université.  « La grande force est  que ChatGPT est entraîné sur une quantité de données gigantesque, astronomique : pratiquement  tout internet ! », ajoute Nicolas Sabouret.

« Ces modèles  comportent un nombre de paramètres assez vertigineux : entre 100 et 1000 milliards de connexions. »

En plus d’être entraîné sur un nombre considérable de données, l’autre nouveauté de ce logiciel créé par OpenAI est  d’être multifonctionnel. « Le coté enthousiasmant est qu’il est multitâche, précise Laurence Devillers.  Il peut écrire un poème, répondre à une question…  Il  réussit  à détecter la tâche. »

Une illusion dangereuse

Ce programme fait illusion mais il ne reproduit pas la compréhension humaine et réalise de nombreuses erreurs. Comme les autres programmes d’intelligence artificielle, il comporte de nombreux biais[3].

Le problème est que ChatGPT peut raconter n’importe quoi avec une syntaxe parfaite.  « OpenAI ne prétend pas que ChatGPT ne fait pas d’erreur mais celles-ci sont difficiles à détecter, d’autant qu’elles sont énoncées sur un ton péremptoire », explique Nicolas Sabouret.

Daniel Goossens s’est amusé à faire plusieurs essais avec ChatGPT. Il précise que ChatGPT donne toujours des réponses « bienveillantes »,  « politiquement correctes » : « J’ai demandé à ChatGPT : est-ce que tu connais le prénom de Gotlib ? Il me répond : « Gotlib est le pseudonyme de Marcel Gotlib, un dessinateur et scénariste de bande dessinée français qui est né le 7 février 34 à Paris et qui est décédé le 8 juillet 2016. Il est surtout connu pour ses travaux dans le domaine de la bande dessinée humoristique. Il a contribué à la création de nombreux personnages et histoires célèbres. Gotlib est également connu pour son travail en tant que réalisateur de films et de télévision, ainsi que pour son activisme politique ». Or, Gotlib n’avait aucun activisme politique. Je lui demande donc : de quel activisme politique s’agit-il ? Il répond : «  Gotlib était connu pour son engagement en faveur de causes politiques progressistes et de l’égalité des droits. Il a notamment soutenu les mouvements pour les droits civiques et les droits des femmes, ainsi que pour la paix et la justice sociale. Il a été également actif dans le mouvement pour les droits des animaux, il a soutenu de nombreuses causes environnementales ». On ne sait pas où il est allé chercher ça. Il raconte n’importe quoi ! »

« Le problème est que ChatGPT peut raconter n’importe quoi avec une syntaxe parfaite. »

Difficultés avec la négation, problèmes pour distinguer les séquences paires et impaires, dans cet article de The Conversation, Fabian Suchanek et Gaël Varoquaux détaillent les limites techniques et concluent : « nous souhaitons montrer qu’il reste à l’heure actuelle imprudent de s’appuyer sur un modèle de langage pour raisonner ou prendre des décisions. »

Il est encore délicat de connaître tous les usages néfastes possibles de  ce programme. Science po l’a déjà interdit à ses élèves. Cet outil peut, bien sûr, être utilisé pour fabriquer du contenu, des fake news.  A l’heure où tout doit être liquide, comme sur les marchés financiers (lire cet article pour en savoir plus),  les plateformes ont besoin de contenu pour proposer de la publicité ciblée. Un tel programme peut être une aubaine.

Comme pour chaque avancée technologique, nous évaluons ses  conséquences après la  généralisation  de son usage. Laurence Devillers rappelle qu’une réglementation au niveau européen est en cours d’élaboration. Elle souhaiterait que les chatbot[4] dont ChatGPT soient classés en IA à haut risque. L’objectif serait de  mettre en place une procédure de validation des algorithmes. « Nous pourrions imaginer une procédure comme pour les médicaments mis sur le marché avec les effets indésirables précisés », ajoute Philippe Besse, mathématicien, professeur émérite à l’Institut national des sciences appliquées (Insa) de Toulouse. Cette procédure de validation pourrait exiger de préciser le taux d’erreur pour chaque programme d’IA.

« Comme pour chaque avancée technologique, nous évaluons ses  conséquences après la  généralisation  de son usage. »

Une opacité dérangeante

ChatGPT manque de transparence. Ces algorithmes collectent nos données en nombre considérable, des données envoyées aux  États-Unis, où la réglementation est bien moins stricte qu’en Europe.

Autre opacité : le nombre d’êtres humains  derrière cette intelligence artificielle. Comme nous l’avions montré dans  l’ouvrage, l’humain au risque de l’intelligence artificielle  une multitude de petites mains -de la Chine au Burkina Faso- permettent à l’intelligence artificielle de fonctionner en étiquetant, en répertoriant les données et en identifiant les images. Elles sont indispensables à différentes étapes, de la préparation des données à l’entraînement de l’algorithme. Ces  travailleurs  sont souvent exploités et   très mal payés. Un article du Time a montré que cela était également le cas pour ChatGPT au Kenya.

Le coût écologique considérable

Concernant l’intelligence artificielle, la partie la plus polluante est l’entraînement de l’algorithme lors de la phase de création d’un programme. « Actuellement, de nombreux chercheurs de tous domaines utilisent des réseaux de neurones profonds car ils sont à la mode, mais ils n’ont parfois pas la quantité de données suffisante afin que le résultat soit considéré comme pertinent et robuste, regrette Emmanuelle Frenoux, maîtresse de conférences à Polytech Paris Saclay. Cela pose un problème scientifique et écologique. Plus le réseau est profond, plus il sera nécessaire de l’entraîner longtemps, plus il faudra de la puissance de calcul et le fonctionnement de machines en parallèle. Dans les années 2010, nous entraînions nos réseaux profonds sur nos propres machines. En 2021, nous avons un centre de calcul en face du laboratoire. On peut envoyer l’entraînement des algorithmes directement vers le centre de calcul et continuer à travailler sans même s’apercevoir du temps de calcul. »

La demande de puissance de calcul en IA double tous les trois ou quatre mois. Elle a été multipliée par 300 000 entre 2012 et 2018.

Une étude a montré que les émissions pour la phase d’entraînement d’un modèle sont comprises entre 18 kg d’équivalent CO2 et 284 tonnes d’équivalent CO2. Le modèle le plus couramment utilisé émet 652 kg d’équivalent CO2, soit environ un aller Paris-­Hong Kong en avion, ou 2 500 kilomètres en voiture, sans même compter l’impact environnemental de la fabrication des machines pour entraîner ces algorithmes. Je n’ai pas encore réussi à obtenir le chiffre précis de la dépense énergétique de ChatGPT. Entraîné sur une quantité gigantesque de données, il émet forcément beaucoup plus de CO2 que ce modèle.

« ChatGPT et son accueil au sein de nos sociétés sont révélateurs de notre fuite en avant technologique. »

ChatGPT et son accueil au sein de nos sociétés sont révélateurs de notre fuite en avant technologique. Pourquoi ne pas débattre de l’intérêt de telle ou telle avancée avant sa généralisation ? Aujourd’hui, nous investissons des milliards d’euros dans l’intelligence artificielle, sans réfléchir aux risques écologiques et sociaux de ces technologies. Ces décisions devraient résulter de débats sociétaux. Dans le monde actuel, limiter les usages numériques est loin d’être simple, d’autant plus que les États entretiennent des relations particulièrement proches avec les multinationales de la technologie. Cette croyance en une technologie remède à tous nos maux est particulièrement ancrée dans nos sociétés.

Juliette Duquesne

 

Pour en savoir plus :

DEVILLERS Laurence, La Souveraineté numérique dans l’après-­crise, Éditions de l’Observatoire, 2020., Les Robots émotionnels, Éditions de l’Observatoire, 2020.

DUQUESNE Juliette, RABHI Pierre, l’humain au risque de l’intelligence artificielle, les Presses du Châtelet, 2021.

GANASCIA Jean-Gabriel, Servitudes virtuelles, Editions du Seuil, 2022

SABOURET  Nicolas, Comprendre l’intelligence artificielle, Ellipses, 2019.

www.ecoinfo.cnrs.fr

[1] L’apprentissage automatique regroupe une partie des programmes d’intelligence artificielle. Ce sont les plus utilisés aujourd’hui. Ces programmes tentent de reproduire une décision à partir de l’historique des décisions de l’humain. Ils sont alimentés par de multiples données. L’apprentissage profond est un processus particulièrement adapté à des tâches complexes. Il s’appuie sur les réseaux de neurones artificiels qui ont des dizaines de couches. Pour un réseau de trois couches de mille neurones, il peut y avoir 400 000 paramètres à régler. Ces réseaux de neurones nécessitent une très grande base de données d’apprentissage.

[2] L’intelligence forte est une intelligence artificielle semblable aux compétences intellectuelles humaines, avec une conscience artificielle. Notre enquête, l’humain au risque de l’intelligence artificielle,  a montré que cette IA n’est pas près d’exister et n’adviendra sans doute jamais.

[3] Les biais d’algorithmes d’intelligence artificielle sont nombreux. Ils peuvent, par apprentissage, reproduire et renforcer les discriminations de la société à cause des données « ingérées », mais aussi à cause de la façon dont l’algorithme est conçu.

[4]  Un chatbot est un agent conversationnel. À la suite d’une phase d’apprentissage plus ou moins complexe, ce robot est susceptible de dialoguer avec l’internaute et de répondre à des questions de façon plus ou moins pertinente

© Carnets d'Alerte 2024. Toute reproduction, intégrale ou partielle des éléments du site est interdite sauf autorisation expresse et préalable de Carnets d’alerte.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.