"ChatGPT est un affabulateur qui répond toujours même quand il ne sait pas"
Menace pour l’emploi, les droits d’auteur et même la démocratie… Pourquoi la populaire intelligence artificielle ChatGPT est à utiliser avec prudence.
/s3.amazonaws.com/arc-authors/ipmgroup/b6d415ca-bddc-4323-93f6-8207b36b87e0.png)
Publié le 06-02-2023 à 11h16 - Mis à jour le 07-02-2023 à 11h48
:focal(2875x1925:2885x1915)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/ASVEIRHANBE4PGXSYHIGG5VFJY.jpg)
Rares sont ceux qui n’ont pas encore entendu parler de ChatGPT. Pour bref rappel, l’algorithme d’intelligence artificielle (IA) est un agent conversationnel que beaucoup qualifient de “révolutionnaire”. Il est capable de répondre à (presque) toutes nos questions. Lancé en novembre, il a été élaboré par la société OpenAI co-créée par Elon Musk en 2015, et dans laquelle Microsoft a réinvesti plusieurs milliards en janvier.
ChatGPT synthétise des textes, vulgarise des concepts complexes et peut même le faire avec le style d’un individu en particulier, comme décrypter le protocole du Bitcoin avec les intonations excessives et hyperboliques de Donald Trump. L’outil est aussi en capacité d’argumenter dans le cadre d’un débat et de créer poèmes, histoires, chansons, et même dans un futur proche d’après Sam Altman (CEO et cofondateur d’OpenAI) des images et des vidéos. Générer des images à partir de texte est d’ailleurs déjà possible avec des outils comme DALL-E 2 d’OpenAI ou Midjourney.
”Si ChatGPT impressionne, il faut davantage le voir comme une application pratique. Pour moi, ce n’est pas une révolution mais une évolution qui concrétise la rupture qu’a représenté l’avènement du deep learning en 2012 (avec la victoire du réseau de neurones AlexNet dans la compétition logicielle ImageNet, NdlR). Une évolution, il est vrai, au potentiel destructeur particulièrement important”, analyse Denys Malengreau, expert en économie numérique basé à Bruxelles.
Menace des professions intellectuelles
La technologie force l’émerveillement, mais suscite en effet divers points d’inquiétude. “Tout d’abord, ChatGPT fait inéluctablement peser une menace sur l’emploi avec la prise en charge et l’automatisation accrue de tâches, notamment intellectuelles et créatives”, entame Denys Malengreau. Le site web d’informations CNET a par exemple publié depuis le mois de novembre 75 articles financiers tout droit sortis de ChatGPT. On leur reproche de ne pas l’avoir dit explicitement. D’autres journaux l’utilisent de manière plus transparente comme le Washington Post, avant relecture et fact-checking. Toujours est-il qu’une partie du travail du journaliste est prémâchée par l’outil. Les métiers de type graphiste sont aussi concernés cette fois-ci en raison de DALL-E 2, cette IA étant capable de générer des images par exemple pour la production de logo.

”Par extension à ChatGPT, il existe également une menace au niveau des droits d’auteur”, explique M. Malengreau. “Par exemple, le chatbot est capable de reproduire du code informatique sous licence… sans inclure la licence ou les auteurs originaux !”, illustre Gilles Louppe, professeur en intelligence artificielle à l’ULiège.
D’ailleurs, d’autres intelligences artificielles en cours de développement représentent une menace similaire. Le programme Diff-SVC de la société Github par exemple a permis de créer une reprise de la chanson “Can’t Get You Out Of My Head” de Kylie Minogue par Lady Gaga, qui n’a en fait jamais chanté cette chanson ! De son côté, Microsoft prévoit de lancer VALL-E, un programme qui en écoutant votre voix pendant trois secondes à peine, peut vous faire lire n’importe quel texte avec vos intonations, timbre et émotions.
Pour revenir à l’outil conversationnel, il faut savoir que quand ChatGPT ne connait pas la réponse à une question, il répond quand même. “ChatGPT est un affabulateur qui va toujours répondre même quand il ne sait pas. Car il n’a pas de représentation interne du monde, de raisonnement ou de conscience comme un humain : il ne sait pas qu’il ne sait pas. Ses réponses, qu’elles soient justes ou fausses sont purement mécaniques”, éclaire Gilles Louppe.
Parfois, il invente
Autrement dit, parfois, ChatGPT invente. “L’outil facilite ainsi la production intentionnelle de faux contenu, ce qui présente un vrai risque d’accroître la diffusion de fausses informations en ligne”, lance Denys Malengreau. D’autant que lorsqu’on lui demande de citer ses sources, le chatbot mentionne parfois des sources fausses ou qui n’existent pas comme de faux liens URL. “Cela aggrave la crise actuelle de l’autorité institutionnelle, politique, médiatique, éducative et même parentale, c’est-à-dire une forme de défiance à l’égard des communications que l’on reçoit. Ce manque de confiance – ‘plus personne ne peut plus rien croire’ – conjugué à la production de fake news est même un risque d’atteinte au tissu démocratique”, accentue encore l’expert en économie numérique.
Ainsi, le fact-checking est fondamental. “OpenAI travaille à ce que ChatGPT invente de moins en moins de réponses, partage Gilles Louppe. L’entreprise a même lancé un 'AI classifier' pour que les utilisateurs puissent repérer si un texte a été écrit par une intelligence artificielle (ChatGPT mais pas seulement, NdlR) ou par un humain. Ce sont des outils qui vont commencer à émerger en masse”. Toutefois, l’outil en accès libre depuis le 31 janvier, qui permettra au professeur de savoir si la dissertation est bien de son élève, ou au lecteur de déterminer si l’article est bien du journaliste, n’est pas encore au point. D’après OpenAI, l’”AI classifier” identifie correctement 26 % de tous les textes rédigés par des algorithmes comme “probablement écrits avec de l’IA” et dans 9 % des cas, il classe des textes écrits pas des humains comme rédigés avec de l’IA…
Le biais humain
Enfin, après s’être entraîné sur des lignes de code informatique, puis sur des milliards de données textuelles sur le web, ChatGPT a été finalisé grâce à la mise en place de certains filtres et à la classification de ses réponses par des humains. L’objectif pour chaque salarié étant de discerner les réponses acceptables de celles qui ne le sont pas, par exemple pour ne pas réitérer l’expérience de Tay, l’IA de Microsoft qui rapidement après son introduction sur Twitter en 2016 a tenu des propos insultants, méchants, vulgaires ou encore racistes. Cette opération colossale a pris énormément de temps et s’est déroulée au Kenya, où la main-d’œuvre est payée environ 2 euros par jour.
”La dépendance manuelle à des décisions humaines et à leur jugement fait que l’intelligence artificielle peut nécessairement être biaisée dans ses réponses. Les équipes d’OpenAI font des choix de développement, ont un certain rapport au monde, et c’est cette idéologie qui peut ressortir dans les réponses de ChatGPT. Il n’y a pas de technologie neutre, l’outil reste imprégné de l’idéologie dont il a pris sa source”, conclut M. Malengreau.
Notre dossier spécial IA :
- Santé, finance, mobilité, éducation... plus aucun secteur n'échappe à l'IA
- La médecine augmentée, c'est déjà maintenant
- Electricité: éviter un crash des réseaux lors de la transition énergétique.
- "Je suis étonné par la proportion des gens qui préfèrent utiliser le chatbot plutôt que de remplir un formulaire"
- Trouver un job en fonction de ses compétences: l'IA va révolutionner le monde des RH
- Dans l'industrie, l'IA deviendra une technologie de base
- Transports: quand l'IA prend le relais des pilotes d'avion défaillants
- Un prof de langues numérique... qui ne menace pas la survie des autres profs
- Retail: étudier le parcours des clients via l'IA pour optimiser le positionnement en rayons