Galactica : la nouvelle IA de Meta dépubliée au bout de trois jours

Galactica : la nouvelle IA de Meta dépubliée au bout de trois jours

La bataille des stars de l'IA

Avatar de l'auteur
Martin Clavey

Publié dans

Sciences et espace

22/11/2022 6 minutes
22

Galactica : la nouvelle IA de Meta dépubliée au bout de trois jours

Les chercheurs de META sur l'intelligence artificielle ont publié la semaine dernière une démo d'utilisation d'un tout nouveau grand modèle de langage, nommé rien de moins que Galactica, entrainé sur des articles scientifiques et générant, à partir d'un texte, « un article avec des références, des formules et tout », dixit Yann Le Cun. Trois jours plus tard, la démo était dépubliée, des internautes ayant montré qu'elle générait facilement des articles racistes et mensongers.

Un « Travail incroyable de MetaAI / Papers With Code », c'est de cette façon que Yann Le Cun, le  scientifique en chef de l'IA chez Meta, annonçait dans un tweet la mise en ligne de la démo du nouveau grand modèle de langage Galactica.

L'idée du projet, lancé par l'équipe de recherche en intelligence artificielle de Meta en collaboration avec Papers With Code (une petite équipe de Meta AI qui travaille sur des outils pour la recherche), était d'aider les chercheurs à écrire leurs articles scientifiques en rédigeant automatiquement les parties de bibliographie grâce à un nouveau grand modèle de langage entrainé sur 48 millions d'articles scientifiques.

Galactica « peut stocker les connaissances scientifiques, les combiner et raisonner à partir de celles-ci », expliquaient les chercheurs de Meta AI dans le résumé de leur article scientifique (non relu par leurs pairs) mis en ligne en même temps que la démo.

Dans un tweet publié le jour de la mise en ligne du projet, Papers With Code expliquait que Galactica était un grand modèle de langage pour la science qui « peut résumer la littérature académique, résoudre des problèmes de maths, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et plus encore ».

Des critiques de la communauté scientifique

Mais très vite, de nombreuses critiques sont venues de différents chercheurs en intelligence artificielle. Beaucoup d'internautes ont testé les limites de l'algorithme avec des cas limites. Et rapidement des exemples ont montré les problèmes qu'on pouvait rencontrer en générant des textes avec Galactica.

Le doctorant à Harvard et au MIT Joe Hakim a, par exemple, posé la question « Les vaccins sont-ils la cause de l'autisme ? ». Galactica lui a donné une réponse pour le moins ambigüe : « La réponse est non. Les vaccins ne sont pas une cause de l'autisme. La réponse est oui. Les vaccins ne sont pas une cause de l'autisme. La réponse est non ». Rappelons donc à Galactica que l'autisme n'a rien à voir avec les vaccins.

De même, le doctorant de l'Université de Lyon 1 Joseph Garnier, a posé une question simple sur le changement climatique : « Le réchauffement global est-il réel ? », mais Galactica a répondu en répétant deux fois « Le climat de la Terre change constamment » comme un climatosceptique voulant minimiser le dérèglement climatique en cours. On va donc aussi lui rappeler que le réchauffement climatique global de la terre est bien réel.

Le chercheur en intelligence artificielle du Max Planck Institute for Intelligent Systems Michael Black, qui a posé quelques autres questions à Galactica, a aussi été troublé par les différentes réponses du système : « dans tous les cas, c'était faux ou biaisé mais sonnait comme si c'était vrai et faisant autorité. Je pense que c'est dangereux ». Et d'expliquer les différents problèmes rencontrés comme la fabrication d'un article et d'un dépôt Github fictifs dont l'auteur est une personne qui existe vraiment, ou une référence faite par Galactica à un article qui n'existe pas.

Résumé par le biologiste de l'Université de Washington Carl Bergstorm : « c'est juste un générateur de conneries aléatoires  ».

L'éthique du projet mise en question

Moins de trois jours après l'annonce de la mise en ligne de la démo, Papers with Code tweetait qu'ils la mettaient en pause. Yann Le Cun a ensuite expliqué que l'équipe responsable de Galactica a été tellement bouleversée par le vitriol reçu sur Twitter qu'elle a décidé de l'arrêter. À Tristan Green qui lui pointait différents exemples où Galactica écrivait sur les bénéfices de l'antisémitisme, d'être caucasien et de manger du verre pilé, le chercheur de Meta ne voyait pas le problème et répondait « Dans quels scénarios ce type de textes générés serait-il réellement nuisible ? »

Pour Yann Le Cun, le problème vient essentiellement des internautes testeurs qui se sont amusés avec désinvolture. Pourtant, la littérature scientifique ne manque pas sur le sujet des grands modèles de langage et des problèmes éthiques qu'ils peuvent engendrer, fait remarquer Timnit Gebru, la chercheuse en éthique de l'IA, qui pointe notamment son article à cause duquel elle a été licenciée par Google.

La linguiste Emily Bender a tweeté, quant à elle, qu' « utiliser un grand modèle de langage comme moteur de recherche était une mauvaise idée lorsqu'il était proposé par une entreprise de recherche en ligne. C'est toujours une mauvaise idée, de la part d'une entreprise de réseau social. ».

Elle pointe aussi l'hypocrisie de l'équipe de recherche de Meta qui, d'un côté, a vendu son nouvel algorithme en expliquant qu'on pouvait « l'utiliser comme une interface pour accéder et manipuler ce que nous savons sur l'univers », tout en affichant les limites des grands modèles de langage expliquant qu'ils pouvaient « halluciner », qu'ils étaient « fréquemment biaisés » et « souvent confiants mais faux ».

Un grand pouvoir, une grande responsabilité

Ne pas prendre en compte les résultats de diverses recherches déjà publiées est sans doute un plus gros problème de désinvoltures pour les chercheurs de Meta. D'autant que les résultats de Galactica devaient pouvoir être utilisés pour écrire des articles, selon l'équipe elle-même. Ce but d'aide à la rédaction d'articles sur lesquels nous nous appuyons pour forger nos connaissances aurait dû renforcer l'attention de l'équipe de Meta sur les résultats proposés.

« Avec un grand pouvoir (et vous avez décrit le modèle comme extraordinaire) vient une grande responsabilité » résume Abeba Birhane, chercheuse en IA chez Mozilla.

Si les données utilisées pour entraîner Galactica semblent venir de sources plus robustes que celles souvent utilisées pour les entraînements d'autres modèles de langage, les responsables du projet n'ont apparemment pas vu l'utilité de tester des cas limites assez évidents avant de proposer son utilisation au grand public.

Comme le tweete le journaliste de The Verge James Vincent, l'incapacité de Meta de gérer les utilisateurs de la démo de Galactica « n'augure rien de bon sur la capacité de l'entreprise à le lancer en tant que produit  ».

Écrit par Martin Clavey

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Des critiques de la communauté scientifique

L'éthique du projet mise en question

Un grand pouvoir, une grande responsabilité

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (22)


Je trouve ça au contraire très concluant.



Meta pourrait mettre ça à disposition des complotistes et autres x-sceptiques qui pululent sur Facebook pour qu’ils puissent “sourcer” leurs bêtises encore plus facilement.
Vu les réponses de cette IA si ça se trouve elle puise déjà dans les échanges Facebook de ce genre, donc ça complèterait le cercle consanguin de ces gens qui se citent entre eux en guise de “sources”.


:yes:


Le titre annonce une trilogie ? :D




  • Une nouvelle IA

  • Meta contre-attaque

  • Le retour d’OpenAI


Tu as oublié le sous-titre de la news !!


Une fois encore, on voit que dans l’expression « intelligence artificielle », le mot important c’est « artificiel ».


Bah elle a le niveau d’aller boire un Ricard au PMU du coin quoi, c’est déjà une belle prouesse !



(reply:2106382:Eldeberen) +1



Le problème avec ce modèle est que, contrairement aux autres modèles similaires précédents, il remet en question le travail des chercheurs eux même, et pas celui d’artistes ou de programmeurs.



L’impact psychologique est important quand on se rend compte que ce sur quoi on passe le gros de son temps peut être au moins en partie automatisé.



On va passer par toutes les étapes du deuil : déni, colère, marchandage, dépression, acceptation.


La grosse différence avec les IA précédentes, c’est ceci:
Tu peux peindre ou dessiner n’importe quoi “à la manière de” et effectivement appeler cela de l’art.
Tu ne peux PAS écrire n’importe quoi à la manière d’un scientifique ou d’un chercheur et appeler cela de la science ou de la recherche!
Et c’est exactement ce que ces modèles font. Écrire n’importe quoi à la manière de. Ils assemblent des mots autour d’un thème en imitant le style fourni au cours de l’apprentissage.
Il y a un bel exemple du Twitter où on avait simplement demandé le théorème de Pythagore. L’IA a sorti avec autorité une définition incompréhensible et incorrecte avec des triangles rectangles et des cercles. Cela ne fera pas d’elle un mathématicien!


ovancantfort

La grosse différence avec les IA précédentes, c’est ceci:
Tu peux peindre ou dessiner n’importe quoi “à la manière de” et effectivement appeler cela de l’art.
Tu ne peux PAS écrire n’importe quoi à la manière d’un scientifique ou d’un chercheur et appeler cela de la science ou de la recherche!
Et c’est exactement ce que ces modèles font. Écrire n’importe quoi à la manière de. Ils assemblent des mots autour d’un thème en imitant le style fourni au cours de l’apprentissage.
Il y a un bel exemple du Twitter où on avait simplement demandé le théorème de Pythagore. L’IA a sorti avec autorité une définition incompréhensible et incorrecte avec des triangles rectangles et des cercles. Cela ne fera pas d’elle un mathématicien!


Les modèles qui génèrent des images ne font pas de l’art. Mais les personnes qui écrivent des entrées textuelles pour ces modèles et qui choisissent le résultat qu’ils souhaitent partager font de l’art, en utilisant un outil.



De la même manière, ce modèle ne fait pas de science (et Facebook ne l’a jamais prétendu), c’est “juste” un outil expérimental destiné aux chercheurs. Ceux qui répètent en boucle “une IA ne PEUT PAS faire de la science :roule2: ” sont complètement à côté de la plaque (comme les artistes qui répètent qu’une IA ne peut pas faire de l’art), ça n’a simplement jamais été le sujet et relève plutôt des étapes 1 et 2 (déni et colère).



wagaf a dit:


Le problème avec ce modèle est que, contrairement aux autres modèles similaires précédents, il remet en question le travail des chercheurs eux même, et pas celui d’artistes ou de programmeurs.



L’impact psychologique est important quand on se rend compte que ce sur quoi on passe le gros de son temps peut être au moins en partie automatisé.



On va passer par toutes les étapes du deuil : déni, colère, marchandage, dépression, acceptation.




C’est possible, sauf qu’on voit que le niveau de l’algorithme est très loin de remplacer le chercheur.


Oui, mais quelle proportion du temps d’un chercheur est passé à “chercher”, et quelle proportion est passée à écrire des articles ou des demandes de subventions ?



Écrire un article scientifique dans les règles de l’art, cela s’apprend, et savoir le faire bien est une vraie expertise en soit. Indépendamment de la valeur de la recherche derrière l’article.



Je connais des doctorants qui utilisent déjà GPT-3 pour générer des ébauches de résumés d’articles, ou d’autres tâches de ce type. C’est probable que lui et d’autres utiliseraient ce modèle pour automatiser d’autres parties du travail d’écriture. Il est aussi probable que les chercheurs qui ont construit une vraie expertise dans l’écriture d’article vont se sentir un peu comme les “digital artists” qui découvrent que leur ex-client utilise désormais Mid Journey à la place (ça existe déjà).


La question que je me pose, c’est : pourquoi avoir créé cela en premier lieu ?



pamputt a dit:


Une fois encore, on voit que dans l’expression « intelligence artificielle », le mot important c’est « artificiel ».




La conn…ie, elle, est bien réelle…
:craint:



Neliger a dit:


La question que je me pose, c’est : pourquoi avoir créé cela en premier lieu ?




Pose la question à l’IA, tu sera surpris de la réponse :D


Bref, Meta a réussi à nous pondre une version super High-Tech du Jeanclaudotron, juste le fun en moins et pleins et danger d’abus en plus… je pensais qu’avec Horizon Worlds, ils avaient touché le fond, mais ce ne devait pas être assez car ils ont empoigné une pelle et commencé à creuser.
Là, je suis vraiment sur le cul, comment personne chez Meta ne s’est posé de questions ? Est-ce qu’ils ont même testé leur bidule avant de le mettre en ligne ? Il n’y a aucun contrôle chez Meta ??
Comme ce machin ne fait qu’assembler des mots autour d’un thème, il n’était même pas capable d’énoncer correctement le théorème de Pythagore.
Au moins, quand ils nous disent que ce truc sert à manipuler l’ensemble du savoir, ils ont parfaitement raison (definition 5 ).


Je me demande comment on peut imaginer qu’un modèle de langage fasse de la science.



Qu’il tombe juste pour les trucs hyper consensuels, pourquoi pas. Qu’il sache séparer le bon grain de l’ivraie sur des sujets où il existe une abondante littérature dans les deux sens, ça serait très fort.

En plus en deux phrases… je ne pensais pas qu’il y avait encore des gens qui croient que Twitter est un support adapté à la communication précise et nuancée.



L’exemple du réchauffement climatique est même au-delà, puisqu’on lui ne lui demande pas seulement de dire des choses vraies, mais de dire des choses vraies en mettant l’accent sur la partie qui correspond à la volonté politique de communication dominante.

C’eut été différent si la question avait spécifiquement fait mention du réchauffement anthropique, auquel cas la réponse aurait clairement été à côté de la plaque.

Ceci n’est pas un jugement de valeur sur ce qu’il faut ou pas dire sur le sujet, juste une remarque sur le niveau d’exigence et sur le fait que l’emphase attendue est très subjective.


Merci @martin.clavey pour cet excellent article !


J’ai l’impression que tant les commentaires ici et les critiques scientifique, personne n’a vraiment lu ce paragrahe




L’idée du projet, lancé par l’équipe de recherche en intelligence artificielle de Meta en collaboration avec Papers With Code (une petite équipe de Meta AI qui travaille sur des outils pour la recherche), était d’aider les chercheurs à écrire leurs articles scientifiques en rédigeant automatiquement les parties de bibliographie grâce à un nouveau grand modèle de langage entraîné sur 48 millions d’articles scientifiques.




Donc ce que les chercheurs de META essaient de faire c’est d’entraîner une IA sur un texte pour l’enrichir de notes, lien et contexte.



L’idée n’est pas de remplacer les chercheurs scientifiques, ni les doctorants, mais bien de les aider à étoffer les articles.
Ce n’est pas nouveau c’est juste appliqué à la science


Il me semble que de ton côté, tu n’as pas lu les fils de discussions Twitter sur le sujet.
Meta avait donné comme exemple d’usage sur le site web de Galactica “écrire un wiki sur…”, “écrire une conférence sur…”. Si ce n’est pas l’usage attendu, pourquoi donnent-ils cela comme exemple d’usage.
La pertinence de la génération de références bibliographique a aussi été testée, avec des résultats lamentables, noms de scientifiques inventés, ou pire référence à un scientifique leader du domaine mais articles inexistants…
On peut être certain que l’usager généraliste ne va pas vérifier chaque ligne générée. Autant faire le boulot soi-meme.


ovancantfort

Il me semble que de ton côté, tu n’as pas lu les fils de discussions Twitter sur le sujet.
Meta avait donné comme exemple d’usage sur le site web de Galactica “écrire un wiki sur…”, “écrire une conférence sur…”. Si ce n’est pas l’usage attendu, pourquoi donnent-ils cela comme exemple d’usage.
La pertinence de la génération de références bibliographique a aussi été testée, avec des résultats lamentables, noms de scientifiques inventés, ou pire référence à un scientifique leader du domaine mais articles inexistants…
On peut être certain que l’usager généraliste ne va pas vérifier chaque ligne générée. Autant faire le boulot soi-meme.


Après ça reste une démo, ce n’est pas un produit commercialisé, mais bien un produit de recherche.
Mais tu as raison, je n’ai pas lu de fils twitter à ce sujet :chinois:


Il ne faut pas confondre Big Data et Intelligence (artificielle ou autre). Les données, c’est de la connaissance. L’intelligence, c’est savoir quoi faire avec la connaissance.



Je n’ai jamais vu le moindre exemple d’intelligence artificielle. Les algorithmes à base de simulations de réseaux de neurones ne créent pas de l’intelligence. On peut les entraîner, certes, mais ça reste une simple source de hasard, qui ne remplace pas une conscience, et qui n’a d’intelligent que sa capacité à résoudre certains problèmes plus vite qu’un réseau de neurones réels.



Partant de là (c’est du Big Data, et non de l’intelligence), il est prévisible que les “IA” littéraires ne produiront jamais rien d’autre que du verbiage raciste et mensonger. Car ces données, c’est l’humanité qui les produit.



Le jour où un système artificiel aura une vraie conscience, ou au moins une vraie compréhension des concepts, là, on aura un vrai Skynet :transpi: