Dans les derniers mois, plusieurs dizaines de milliers d’employés de la tech ont été licenciés. Les équipes en charge de la modération des contenus, de l'éthique de l'IA et, plus globalement, de la protection des utilisateurs ont été particulièrement touchées.
Vers la fin 2022, des ingénieurs de Meta étaient prêts à lancer un produit de fact-checking qu’ils avaient mis six mois à construire. L’idée était d’offrir à des experts reconnus et à des acteurs tiers, comme les agences the Associated Press et Reuters, la possibilité de mettre des commentaires sur des articles publiés sur Facebook pour lutter contre la désinformation.
Problème : Mark Zuckerberg a déclaré vouloir faire de 2023 l’« année de l’efficacité » et l’outil, lui, a été complètement abandonné. La raison ? Parmi les 21 000 postes supprimées chez Meta au fil des derniers mois, les équipes « Trust and Safety », qui travaillent sur la protection des utilisateurs, ont particulièrement été touchées, de même que celles dédiées à la modération.
Ce qui pose une question : dans quelle mesure est-ce que ces mouvements affectent les usages numériques des internautes ?
- Les licenciements massifs et des problèmes de leadership affectent les employés de Meta
- Meta licencie 10 000 personnes supplémentaires
- Amazon licencie 9 000 personnes de plus
- Microsoft licencie son équipe dédiée à l’éthique de l’IA
- L'équipe d'anges gardiens de Google a été plus décimée que ses employés « à but lucratif »
- Après Meta et Twitter, Amazon devrait licencier 10 000 employés
- La vague de licenciements débute chez Twitter
Licenciements généralisés
Car le mouvement n’a rien de propre à l’entreprise de Zuckerberg. Face au contexte économique et après avoir embauché à tour de bras pendant la bulle Internet provoquée par la pandémie de Covid-19, la plupart des géants numériques opèrent de grands plans de licenciements.
Mais force est de constater que les équipes en charge de la protection des utilisateurs sont particulièrement touchées. Chez Twitter – qui gère en plus un changement de propriétaire –, toute l’équipe dédiée à l’éthique de l’IA et au moins 15 % de l’équipe « trust and safety » a été licenciée dès le mois de novembre 2022.
Chez Google, l’équipe Jigsaw, en charge de la création d’outils destinés à protéger les internautes de la désinformation, des discours de haine et de la surveillance, ont été réduites à une portion « squelettique », rapportait Forbes en février. Pareil chez Microsoft, qui s’est séparée de son équipe « éthique et société » en mars.
Sur Twitter, explosion nette du climato-dénialisme et de la désinformation
Résultat, le directeur de recherche au CNRS David Chavalarias et son équipe notent des évolutions très claires des discours, notamment sur la question climatique, depuis l’arrivée d’Elon Musk à la tête de Twitter et ses coupes claires dans les effectifs.
Habituellement, « l’été concentre les débats sur la question climatique, puis le sujet se tasse », décrit le mathématicien :
« Or, cette année, le paysage a complètement changé. Quand on compare les chiffres de participation sur ces questions trois mois avant et trois mois après le changement de direction, on constate une fuite très nette de comptes de militants pro-climats contre une baisse relativement faible de la participation de ceux qui nient le climat ».
Pour résumer, les pro-climats postent 33 % moins de tweets orignaux et sont 25 % moins nombreux qu’auparavant, tandis que l’activité de ceux qui remettent en question la réalité du changement climatique n’a baissé que de 10 %. « Ça a changé l'état du discours, puisqu’on se retrouve avec 50 % de climatosceptiques face à 50 % de défenseurs du climat, là où autrefois, la proportion était plus de 30 % contre 70 % ».
Pour le scientifique, la situation reflète une augmentation plus large des discours de désinformation sur la plateforme, tendance tirée par le nouveau directeur lui-même « puisqu’il a décidé, au nom de la liberté d’expression, de remettre en ligne des comptes violents et/ou complotistes » en même temps qu’il réduisait les équipes en charge de contenir ce type de contenus. En mars 2023, l’Institute for Strategic Dialogue constatait effectivement une explosion des discours antisémites sur le réseau.
« Et puis il partage lui-même des contenus complotistes », ce qui, certes, ne facilite pas l’assainissement des discussions, mais participe, aussi, à la spécificité du cas de Twitter. Spécialiste des opérations de désinformation, autrice d’Agora Toxica, la société incivile à l’ère d’internet, Stéphanie Lamy agrée : « c’est le plus gros compte de la plateforme », pointe-t-elle : en matière d’amplification, cela donne à ses publications un avantage particulier.
Gestion de contenu versus design d’interface
Pour la spécialiste, cela dit, le détournement progressif des entreprises de la tech du front de la lutte contre la désinformation remonte à avant les vagues récentes de licenciements. « Certaines, comme Meta, s’étaient beaucoup préparées à la campagne présidentielle américaine de 2020, elles avaient mis en place des dispositifs et des outils. Et malgré ces travaux, il y a eu la campagne #StopTheSteal, il y a eu l’attaque du Capitole. »
À partir de là, estime l’experte, certains acteurs ont commencé à baisser les bras, ce qui peut venir se traduire jusque dans les réductions ou dissolutions récentes des équipes en charge de la protection des internautes.
Data scientist et ancien chef de projet chez Facebook, Ravi Iyer pointe un autre type de problématique : celui des licenciements parmi les équipes dédiées aux questions de politique et de design des plateformes. Plusieurs des collègues qu’il a vus licenciés, explique-t-il à CNBC, avaient pour tâche de réfléchir à des modifications fondamentales de fonctionnalités dont le temps avait fini par démontrer les dangers. La suspension de ce type de travail lui paraît plus inquiétante, sur le long terme, que celui des équipes directement dédiées à la gestion « à chaud » des problèmes de désinformation.
Stéphanie Lamy tient un discours assez proche : « le problème, à mon sens, ce n’est pas tant la prévalence de contenu faux ou violents que l’amplification de ces messages que le design des plateformes permet ». Sur Facebook, rappelle-t-elle, l’épisode des Gilets Jaunes a permis d’illustrer très directement la primeur que les algorithmes de sélection et de hiérarchisation de l’information donnaient aux contenus les plus virulents.
« Avec Twitter Blue, c’est de nouveau très net : la plateforme privilégie la constitution de groupes d’intérêt toujours plus vastes » et permet, grâce à cela, aux discours les plus clivants de se diffuser d’autant plus loin, d’autant plus rapidement.
- Twitter Blue de nouveau là, l’abonnement à 11 dollars depuis un iPhone
- Meta lance son abonnement Verified, dans le sillage de Twitter Blue
- La moitié des abonnés payants à Twitter Blue ont moins de 1 000 abonnés
L'éthique de l'IA elle aussi touchée
Or, quand le design des plateformes numériques recoupe les questions algorithmiques, on peut s’étonner que les équipes en charge de créer des principes et des outils d’éthiques applicables au domaine de l’intelligence artificielle soient, elles aussi, brusquement réduites.
Alors que des chatbots comme ChatGPT rencontrent un succès fort et rapide et que des acteurs comme Microsoft et Google se sont ouvertement lancés dans une course à l’adoption des grands modèles de langage, des chercheurs ont effectivement déjà calculé que le développement de ce type d’outil pouvait aboutir à une multiplication par six du degré de toxicité des échanges selon l’usage qui en est fait (assistant virtuel, service client, etc).
Problème, explique à CNBC la data scientist et ancienne directrice de l’équipe d’éthique de l’IA chez Twitter Rumman Chowdhury, chez Alphabet comme chez Twitter ou Meta, il est difficile pour ces équipes « de démontrer [leur] valeur quand [leur] valeur consiste à ne pas être poursuivi en justice ou à ce que personne ne subisse de dommage ».
Les équipes d’éthiques de l’IA et de protection des utilisateurs n’ont aucun « objet brillant » à fournir à la fin d’un projet pour démontrer qu’elles ont travaillé. Et si leur activité « représente un bénéfice financier à long-terme, il est plus dur de mesurer leur efficacité d’un trimestre à l’autre ».
Aux États-Unis, pourtant, la campagne en vue des élections présidentielles 2024 se profile. Avec elle, les effets des interfaces sur les discours en ligne et la gestion des contenus incivils risque de se poser de manière encore accrue jusque sur la terre natale de la plupart de ces géants numériques.