ChatGPT ravive les débats autour des compétences de l'intelligence artificielle

Imiter n'est pas s'éveiller
ChatGPT ravive les débats autour des compétences de l'intelligence artificielle
Crédits : Alexa Steinbrück/Better Images of AI

Tricherie aux examens, outil facile de rédaction et de création… Depuis plusieurs semaines, ChatGPT anime les discussions. Autant de débats qui ravivent de vieilles angoisses et appellent à un brin d'explication : de quoi est capable, au juste, ce genre de machines adeptes de conversation ?

Le 30 novembre 2022, bruissement sur les réseaux : OpenAI vient de sortir ChatGPT, un agent conversationnel créé et affiné à partir de son modèle de langage (large language model, LLM) GPT-3. Sous réserve de s’identifier sur la plateforme, n’importe qui peut aller discuter à l’écrit avec la machine en anglais, en français, en chinois et dans un vaste choix d’autres langues.

Rapidement, l’outil provoque des réactions contrastées. Des cas de tricherie sont rapportés depuis les écoles ou les facultés, l’une des plus prestigieuses conférences sur l’intelligence artificielle interdit l’usage de modèles de langage pour rédiger des articles scientifiques… Pendant ce temps, sur les réseaux, la communauté de l’intelligence artificielle débat ardemment des capacités réelles de ces machines. L’un des inventeurs de l’apprentissage profond, Yann LeCun, souligne par exemple que le langage a évolué de sorte à être facilement traité et compris par des réseaux de neurones biologiques. Rien ne l’empêcherait, dans ce cas, d’être abordé de la même manière par des réseaux de neurones artificiels. 

Mais cette comparaison suffit-elle vraiment à considérer que le langage est parfaitement négocié, compris, intégré par ces machines ? Pour la linguiste Emily Bender, le spécialiste des technologies du langage Roger K. Moore et d’autres, c'est une vision bien trop simpliste de ce qu’est la langue – un peu comme lorsque le spectre de la conscience des machines avait été soulevé par l’un des ingénieurs de Google, en juin dernier

ChatGPT, petit dernier d’une série d’innovations

Quel que soit le ou la scientifique que l’on interroge néanmoins, tout le monde admet que les résultats de ChatGPT sont impressionnants. Directeur de recherche à l’Inria, Serge Abiteboul les qualifie de « bluffants ». Chercheuse au sein de l’équipe Machine Learning and Information Access (MLIA) de l’Institut des systèmes intelligents et de robotique, Laure Soulier salue « ses performances en termes de génération de langage et en dialogue ». ChatGPT serait une sorte d'aboutissement des multiples progrès des dernières années – avant qu'une nouvelle technologie ne vienne le détrôner. 

En 2017, une première rupture a eu lieu avec les modèles Transformer, comme le modèle BERT de Google. « Avant, on essayait de capturer le sens des mots, puis de les associer, rappelle Laure Soulier. Avec les Transformers, on a pu faire réaliser des tâches beaucoup plus génériques aux modèles de traitement du langage : des questions réponses, de la détection d’entités nommées [chercher des mots ou groupes de mots dans un corpus, ndlr], de la génération de texte… » 

Deux ans plus tard, nouvelle rupture : des modèles comme les Generative Pre-Trained Transformers d’OpenAI (GPT-2 et GPT-3, en particulier) se mettent à fonctionner sur la base d’instructions (prompts). « Cela permet d’ajouter du contexte aux échanges d’informations, indique la chercheuse en éthique de l’intelligence artificielle au CNRS Giada Pistilli. Si, par exemple, vous lui avez demandé plus tôt quelle était la capitale de l’Italie et que dans une nouvelle phrase, vous lui demandez où trouver les meilleures pizzas, il sera capable de faire le lien. »

S'il s’agissait jusque-là de faire en sorte que la machine comprenne le sens d’un mot ou d’une phrase, désormais, on peut la faire dialoguer avec l’utilisateur, car elle peut analyser son propos, aller chercher des informations correspondantes et formuler une réponse cohérente.

Reproduire le langage, est-ce acquérir une forme de conscience ? 

Vue de l’extérieur, l’un des grands débats que soulèvent ces technologies de pointe tourne autour de questionnements philosophiques infinis : que sont la conscience et l’intelligence ? Le simple fait de posséder le langage signifie-t-il que l’on est conscient ? De ces interrogations en découle une autre : si les machines peuvent imiter ces facultés humaines, est-ce à dire qu’elles les maîtrisent ?

« Ces interrogations se trouvent à mi-chemin entre la philosophie du langage et la philosophie de l’esprit », constate Giada Pistilli. Le problème étant que, même parmi les experts de ces domaines, la question reste « extrêmement débattue : est-ce que la conscience, c’est comprendre le langage quand on le parle ? Est-ce que c’est avoir conscience du temps et de l’espace ? Éprouver des émotions, des sentiments ? Ce sont des discussions encore très ouvertes ! ».

De son côté, Serge Abiteboul estime qu’on peut aborder le débat de deux manières : d’un point de vue technique et d’un autre, plus collectif, « du point de vue de la société ». Au fondement de la première approche, il y a les réflexions d’Alan Turing et son expérience visant à estimer si une machine parvient à se faire passer pour un homme aux yeux de l’observateur extérieur. « Si personne n’est capable de faire la différence entre ce que produisent des modèles comme ChatGPT et le langage humain, alors on peut dire qu’on y est ! »

Si l’on prend l’approche sociale, en revanche, les questions s’accumulent. Turing a-t-il dessiné une bonne approche de l’intelligence ? N’y a-t-il pas plusieurs manières d’aborder le problème ? Quid des projections des humains sur leurs interlocuteurs, vivants ou non ? Dès les années 60, des personnes étaient flouées par le robot ELIZA, qui ne faisait pourtant que répéter ce que lui disaient ses interlocuteurs, rappelle Laure Soulier. Par effet d’empathie et de projection, ces derniers ont eu tôt fait de lui prêter une forme de conscience. 

Reproduire n’est pas comprendre

À défaut de résoudre des controverses philosophiques, on peut toujours s’attarder sur le fonctionnement de machines comme ChatGPT. Ce type de mécanique n’est que vaste système d’autocomplétion, « du calcul probabiliste », pointe Giada Pistilli. « La machine se contente de prévoir quelle sera la suite de mots la plus logique » et, de la sorte, à créer des phrases.

Ces systèmes ont donc tendance à remplir le vide, à créer des textes en se préoccupant surtout de leur plausibilité… voire à fabriquer sans fin, au point de perdre de la cohérence. « La machine a parfois tendance à reproduire des styles, à faire des paraphrases, c’est le risque de surgénération » détaille Laure Soulier. On a testé, ça donne un peu le sentiment de discuter avec quelqu’un de très pédant, qui tient à vous réexpliquer chaque fois absolument tout ce qu’il a en tête – même quand c’est pour dire n’importe quoi.

Car si le système reproduit, cela ne veut pas dire qu’il comprend. Comme l’écrit le chercheur Gary Marcus, GPT-3 est un modèle expert dans l’analyse et l’imitation de la manière « dont les mots sont liés les uns aux autres, mais pas de celle dont ces mots sont liés au monde perçu ». ChatGPT peut vous dire que le ciel est bleu, il ne connait ni le ciel, ni le bleu, ni ne fait le lien intellectuel entre les deux. Cela explique que ce type de modèles ne soit pas perturbé par les fausses informations, voire qu’il les refourgue à son interlocuteur avec un remarquable aplomb

Fausses informations et droits d’auteurs

Cette question de la véracité des réponses formulées par le robot conversationnel est l'un des sujets d'inquiétude que partagent Laure Soulier et Serge Abiteboul, en particulier si ce type de technologies est mêlé à des moteurs de recherche. Le but premier d’une machine comme ChatGPT est de fournir « des réponses plausibles, avec un bon niveau de français, de la grammaire, des phrases et des paragraphes bien construits », rappelle la première. Pas d'informer.

Serge Abiteboul s’attarde de son côté sur la temporalité des données de ChatGPT. « Son corpus d’entraînement ne va que jusqu’à 2021, donc si vous l’interrogez sur quoi que ce soit ayant eu lieu en 2022 ou après, il dira n’importe quoi ou ne répondra pas. »

Par ailleurs, l’entraînement d’un modèle comme celui d’Open AI est assez opaque. « On sait que les données sont tirées du web, indique Laure Soulier, elles présentent probablement des biais ». Mais à défaut d’être ouvertes par l’entreprise, difficile de les analyser. 

Tout au plus certains auteurs ont-ils la désagréable surprise de voir certains de leurs textes (ou de leurs images, dans le cas de Dall-E) régurgités par la machine… qui ne livre jamais ses sources « pour la simple raison qu’elle est probablement incapable d’aller vérifier d’où, dans ses données d’entraînement, elle sort ses affirmations », selon Giada Pistilli. En attendant, cela soulève de larges problématiques de droits d’auteurs.

Enseigner le langage par l’interaction

« Ce qu’il faut voir, souligne la philosophe, c’est que ces machines ne fonctionnent pas toutes seules. » Si vous testez ChatGPT, vous verrez que le même genre de structures de phrases revient souvent. « Cela signifie qu’il y a eu un traitement humain, un formatage des réponses par les constructeurs du robot ».

Mais cette intervention est loin d’être le seul espace d’interaction possible avec la machine. Chez ChatGPT, l’internaute lui-même a la possibilité de faire remonter des commentaires, quand la réponse est fausse ou incohérente. 

Cela soulève plein de nouvelles questions, admet l’éthicienne, « autour du travail que les utilisateurs fournissent aux entreprises quand ils corrigent les résultats de leurs modèles algorithmiques, autour de la conscience qu’ils ont et du consentement qu’ils fournissent à ce que toutes leurs interactions avec la machine soient enregistrées… » 

Malgré tout, Giada Pistilli en est persuadée : « 2023 sera l’année de l’apprentissage par renforcement », celle où s’élargiront les logiques d’apprentissage machine enrichi par les retours des usagers eux-mêmes. 

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !