Avec les avancées continues dans ce domaine, les outils de détection des artefacts classiques (zones d'ombres, détourages approximatifs, etc.) ne sont pas suffisants pour détecter correctement des deepfakes, c'est-à-dire des vidéos ou le visage d'une personne a été remplacé par celui d'une autre.
Pour mener son combat, Facebook s'est associé à Partnership on AI, Microsoft et plusieurs universités : MIT, Oxford, Berkeley, Maryland, College Park, etc. Google est absent, mais le géant du Net a déjà lancé son propre combat sur les deepfakes audio il y a quelques mois.
Le but de l'opération est de proposer « une technologie que tout le monde pourrait utiliser pour mieux détecter quand une IA a été utilisée pour modifier une vidéo afin d'induire le spectateur en erreur ». Une vidéo explicative avec des exemples de deepfakes a été mise en ligne par ici.
Facebook a commandé des jeux de données réalisées par des acteurs rémunérés et « clairement consentants » sur l'utilisation qui sera faite de leur image (un effort louable de la part du réseau social…). Facebook prend les devants : « Aucune donnée d'utilisateurs Facebook ne sera utilisée ».
Au total, plus de 10 millions de dollars sont consacrés à ce projet, qui comprend notamment des prix pour encourager les participants.