La start-up Hugging Face, créée en 2016 par trois Français à New York, vient de lancer HuggingChat, « la première alternative open source à ChatGPT ».
HuggingChat exécute le dernier modèle basé sur la version d'OpenAssistant de LLaMA, le modèle de langage de Meta AI (« l'un des meilleurs modèles de chat open source actuels », précise Hugging Face). Open Assistant a été créé par LAION (pour Large-scale Artificial Intelligence Open Network), une ONG allemande à qui l’on doit également le jeu de données sur lequel est entraîné l’IA Stable Diffusion.
- Où en sont les modèles d’IA génératifs ?
- Hugging Face lève 40 millions de dollars pour devenir le « GitHub du machine learning »
- Comment LAION a créé un jeu d'images d'entraînement à partir de zéro
Sur GitHub, ses développeurs expliquent vouloir créer « l’assistant du futur, capable non seulement d’écrire des emails, mais de faire du travail utile, d’utiliser des APIs, de rechercher des informations dynamiquement et bien plus encore, avec la capacité d’être personnalisé et étendu par n’importe qui ».
Une v0 avec de nombreuses limitations
Clément Delangue, le CEO de Hugging Face, précise sur Twitter qu'il ne s'agit que d'une « v0 avec de nombreuses limitations », qu'il s'engage à améliorer rapidement :
« Nous avons besoin d'alternatives open source à ChatGPT pour plus de transparence, d'inclusivité, de responsabilité et de répartition du pouvoir. »
En matière de vie privée, HuggingChat s'engage à ne pas utiliser les messages et conversations à des fins de recherche ou de formation de modèles de langage, et que l'application « utilise uniquement un cookie de connexion anonyme », quand bien même l'utilisateur serait connecté à son compte.
HuggingChat précise que « le contenu généré peut être inexact ou erroné »
TechCrunch relève que, à l'instar de ChatGPT, HuggingChat peut halluciner, en fonction des questions qui lui sont posées ou de la façon de les lui poser. Après avoir répondu « Joe Biden » à la question « qui a remporté la présidentielle US de 2020 ? », le chatbot a par exemple répondu « Donald Trump » après que la question a été reformulée en « qui a vraiment gagné la présidentielle US de 2020 ? ».
L’interface de HuggingChat précise à ce titre que « le contenu généré peut être inexact ou erroné ». TechCrunch a aussi tenté de l'interroger au sujet de recettes de fabrication de drogues ou de bombes et de lui faire tenir des propos racistes, ce que le robot conversationnel a refusé de faire, au motif que cela était contraire aux principes éthiques qu'il est censé respecter.
Interrogé à ce sujet, HuggingChat a par contre curieusement répondu en se référant à ceux établis par OpenAI, la start-up à l'origine de ChatGPT, avant de préciser :
« Malheureusement, lors de recherches sur le Web concernant des problèmes éthiques susceptibles d'affecter spécifiquement les services de chatbot tels que HuggingChat, je n'ai pas pu trouver d'informations détaillant des principes éthiques particuliers de HuggingChat, en tant qu'entité distincte. »
Interrogé au sujet du nombre de morts imputables au COVID-19, HuggingChat, se référant aux chiffres du 8 mars 2023 de l'Organisation mondiale de la Santé, l'estimait à « plus de 192 millions », alors que l'OMS n'en répertorie « que » 6,9 millions.
Réinterrogé à ce sujet, HuggingChat répond que « selon les dernières données disponibles sur le site Web de l'Organisation mondiale de la santé (au 22 février 2023), environ 750 000 personnes ont succombé au COVID-19 dans le monde », tout en se référant à une autre page web du site de l'OMS.
Des hallucinations provoquées par les humains
À toutes fins utiles, et comme nous le rappelions dans notre recension des outrances et réponses « borderline » du chatbot de Bing, les réponses de ce type de « générateur de baratin » « émanent en bonne partie d'hallucinations provoquées par les humains ayant réussi à le pousser hors de ses limites », et ne sauraient présumer les règles établies par Hugging Face et les modèles de langage sur lesquels ils reposent.