Un pionnier du deepfake accusé de méconduite scientifique

Fake science du deepfaker

Un pionnier du deepfake accusé de méconduite scientifique

Un pionnier du deepfake accusé de méconduite scientifique

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Le chercheur Hao Li, l'un des pionniers du deepfake, est accusé de manipulation de données et deux de ses articles scientifiques vont être rétractés, selon le site spécialisé dans la surveillance de ce genre de cas, Retraction Watch.

Le chercheur allemand en intelligence artificielle Hao Li a été crédité aux génériques de nombreux films comme Fast & Furious 7, Le Hobbit: La Bataille des Cinq Armées ou encore Blade Runner 2049 pour avoir effectué leurs effets visuels. Mais ce chercheur et entrepreneur a, parfois, falsifié les données utilisées dans des articles scientifiques, selon le site Retraction Watch qui recense les rétractations d'articles scientifiques.

Après avoir travaillé pour des studios d'effets spéciaux comme ILM/Lucas Film, il a cofondé en 2015 la startup Pinscreen pour vendre ses solutions d'effets visuels créés par ordinateur, dont une solution de création de deepfake permettant de remplacer dans une vidéo le visage d'une personne par celui d'une autre.

En parallèle de cette carrière dans l'industrie, Hao Li en mène une dans le milieu de la recherche, dont 7 ans à l'Université de Californie du Sud (University of Southern California en anglais, USC) de 2013 à 2020. Selon son profil Linkedin, il est actuellement en poste à l'Université d'Intelligence artificielle Mohamed bin Zayed, aux Émirats Arabes Unis, une université officiellement créée en 2019, mais dont les cours n'ont commencé qu'en 2021.

L'ancien vice-président de Pinscreen en lanceur d'alerte

Si les compétences de Hao Li pour créer ce genre d'effets ne sont pas remises en question, son ancien collègue et vice-président de Pinscreen, Iman Sadeghi, dénonce des manipulations de données et une présentation trompeuse de ce que pouvait faire leur logiciel, notamment lors du séminaire SIGGRAPH de 2017, l'un des événements les plus importants dans la communauté scientifique et industrielle de la conception d'images assistée par ordinateur.

À l'époque, Sadeghi (lui aussi chercheur en informatique) et Hao Li signent avec leurs collègues un article scientifique paru dans la revue ACM Transactions on Graphics ainsi que la publication de leur présentation dans les actes du séminaire SIGGRAPH (visible aussi sur YouTube).

avatar en faux temps réel 1avatar en faux temps réel 2

Dans cette vidéo, Hao Li présente de façon générale leur logiciel et Iman Sadeghi en fait la démonstration en direct. Celle-ci consiste à prendre une photo avec une webcam puis à attendre pendant quelques secondes pour obtenir un rendu 3D de la tête de Sadeghi et créer un avatar numérique à son image. Dans la démo, celui qui était alors vice-président de Pinscreen fait de même avec une simple photo d'un autre de ses collègues. Et il faut avouer que le rendu et notamment celui des cheveux est assez impressionnant.

Sauf que, selon Sadeghi lui-même, leur logiciel ne pouvait pas, à ce moment-là, créer ce rendu 3D en temps réel et en quelques secondes.

Sadeghi, rapportait le Los Angeles Times en 2018, a été licencié par l'entreprise en août 2017 parce qu'il avait, selon lui, justement pointé du doigt ces manipulations. Le procès est toujours en cours.

L'Université de Californie du Sud, en tant qu'employeur de Hao Li à ce moment-là, et l'Association for Computing Machinery (ACM), organisatrice de SIGGRAPH et éditrice des articles visés, ont chacun mené leur enquête pour statuer un éventuel manquement à l'intégrité scientifique.

En différé et pas en temps réel

Iman Sadeghi, qui apparemment ne lâche pas le morceau, publie régulièrement sur son site web des documents montrant l'avancée de ces enquêtes. Retraction Watch relève, dans son article, que Sadeghi a mis en ligne en septembre dernier la lettre de l'ACM [PDF] prévenant tous les auteurs qu'elle allait rétracter les deux articles. La société savante explique que son comité d'éthique les considère coupables de violation de ses règles de déontologie. La lettre appuie :

« Plus précisément, le Comité a constaté que la présentation au SIGGRAPH 2017 Real Time Live ! a faussement présenté des images pré-générées comme étant créées de façon dynamique. Ce fait aurait dû être divulgué à l'audience, mais ça n'a pas été le cas. Cette falsification de données s'est étendue à l'article de l'ACM Transaction on Graphics. ».

L'ACM explique aussi aux auteurs qu'elle les bannit de ses publications pendant cinq ans et leur demande d'écrire une lettre d'excuse auprès de ses deux membres responsables de l'organisation du séminaire. Sadeghi a fait appel pour son cas personnel, arguant avoir lui-même été le lanceur d'alerte et avoir collaboré avec l'organisation.

Un rapport détaillé sur la démo

Du côté universitaire, Iman Sadeghi a mis en ligne une version du compte-rendu d'enquête de 490 pages lancée par l'Université de Californie du Sud, incluant un rapport d'un consultant indépendant. Celui-ci résume ce qu'il a trouvé en cinq points :

  1. « Le logiciel de démo de Pinscreen n'inclut pas de fonctionnalité permettant de créer un avatar 3D à partir d'une image, que ce soit de manière entièrement automatique ou non. »
  2. « Le logiciel de démo de Pinscreen comprend au moins onze avatars pré-calculés et pré-enregistrés. Quatre de ces avatars - "Iman", "Hao", "JohnRoot" et "Christobal" - ont été affichés par le Dr Sadeghi pendant la démo de Pinscreen. »
  3. « Le logiciel de démo de Pinscreen permet à l'utilisateur de prendre une photo à l'aide d'une webcam connectée. Quelle que soit la photo prise avec la webcam, le logiciel rtl-app [le nom du logiciel de démo, ndlr] affichera l'avatar "Iman" précalculé. »
  4. « Le logiciel de démo de Pinscreen permet également à l'utilisateur de sélectionner un fichier image précédemment capturé. Si le nom du fichier image correspond à l'un des avatars précalculés (par exemple, "JohnRoot.jpeg"), l'application affiche l'avatar précalculé correspondant. Si le nom du fichier image ne correspond pas à l'un des avatars prédéfinis (par exemple, "GeorgeEdwards.jpg"), aucun avatar ne s'affiche. »
  5. « Le logiciel de démo de Pinscreen est conçu pour induire le spectateur en erreur. Par exemple, le logiciel de démo de Pinscreen comprend une "barre de progression" qui semble montrer la progression d'un calcul sous-jacent pour générer un avatar, alors qu'en fait la barre de progression se remplit simplement en fonction d'une minuterie. »

Dans le détail, le consultant explique notamment que le code source en C# du logiciel ne contient pas la fonctionnalité de génération d'avatar à partir d'une image de webcam : à la place, il a trouvé une fonction où les paramètres sont écrits en dur dans le code :

paramètres en dur

Dans une réponse à ce rapport (toujours mise en ligne par Iman Sadeghi), Hao Li nie toute falsification ou manipulation de l'équipe de Pinscreen. Contacté par NextINpact comme par Retraction Watch pour recueillir son commentaire, Hao Li n'a pas répondu.

À l'Université d'Intelligence artificielle Mohamed bin Zayed qui a accueilli Hao Li comme enseignant-chercheur, c'est silence radio. L'université, qui vient de fêter sa première remise de diplômes en présence du très critiqué président de la COP28 des Émirats arabes unis et du ministre de l'Économie français Bruno Le Maire, n'a pour l'instant pas réagi aux signalements de Sadeghi. Celui-ci a même souligné que l'université émirienne a supprimé sur LinkedIn les commentaires soulignant la méconduite scientifique de Hao Li.

On pourrait penser que, au vu du sujet de recherche, le problème ne concerne que les chercheurs et industriels du domaine. Mais Retraction Watch fait remarquer que les recherches d'Hao Li ont été financées par deux bourses publiques, dont une du Bureau de recherche de la Marine américain (Office of Naval Research en anglais) d'un montant de 600 000 dollars sur trois ans, afin de créer des avatars numériques dans le système d'entrainement de la marine armée des États-Unis.

Commentaires (16)


On va apprendre qu’en plus le code a été généré par ChatGPT ? :transpi:



Ils auraient du utiliser l’Unreal Engine 5, comme tout le monde :transpi:


Impressionnant ! Le deep fake s’applique également à la génération d’article scientifique ; ça a l’air tellement réel qu’on se fait berner :keskidit:


Ça n’est pas du deepfake utilisé pour générer un article. Mais si le sujet t’intéresse tu peux jeter un œil à SciGen, pour le plus ancien cas de générateur d’article que je connaisse. Et je crois qu’il y a eu des cas avec GPT3 plus récemment.


xlp

Ça n’est pas du deepfake utilisé pour générer un article. Mais si le sujet t’intéresse tu peux jeter un œil à SciGen, pour le plus ancien cas de générateur d’article que je connaisse. Et je crois qu’il y a eu des cas avec GPT3 plus récemment.


N’oublie pas de rallumer ton détecteur d’ironie :transpi:.


C’est ce qu’on appelle du deep fake fake


Fabimaru

C’est ce qu’on appelle du deep fake fake



Excellent !! Bien vu celle là !




:bravo: :bravo: :yes: :yes:



la présentation au SIGGRAPH 2017 Real Time Live ! a faussement présenté des images pré-générées comme étant créées de façon dynamique.




Le SIGGRAPH semble avoir un niveau d’exigence plus haut que l’industrie du jeu vidéo. :D


Fermer