Travail du clic et régulation de l’IA agitent la conférence FAccT

Travail du clic et régulation de l’IA agitent la conférence FAccT

Fairness, Accountability & Transparency

Avatar de l'auteur
Mathilde Saliou

Publié dans

Société numérique

13/06/2023 5 minutes
2

Travail du clic et régulation de l’IA agitent la conférence FAccT

La conférence FAccT sur l’équité, la responsabilité et la transparence des systèmes numériques se tient du 12 au 15 juin. Parmi les articles et discussions présentées, des travaux sur la répartition du travail des données et des questionnements sur la régulation de l’IA.

Du 12 au 15 juin, la conférence FAccT - Conference on Fairness, Accountability and Transparency - organisée par l’Association for Computing Machinery se tient à Chicago. Haut lieu des échanges de la recherche en sciences informatiques sur les questions d’éthique, les discussions qui s’y tiennent donnent un bon aperçu des débats qui agitent le milieu. 

En effet, l’événement réunit depuis 2018 des chercheurs informatiques de toutes sortes d'horizons - quoique principalement américains - pour réfléchir aux notions d’équité, de responsabilité et de transparence dans les systèmes socio-techniques. Soutenue par de nombreux noms de la tech, parmi lesquels Apple, Microsoft ou Open AI, la conférence avait notoirement mis fin à ses relations avec Google en 2021, après que l’entreprise a licencié les codirectrices de son équipe d’éthique de l’IA Timnit Gebru et Margaret Mitchell à trois mois d’intervalle. 

Timnit Gebru, Emily Bender et Angelina McMillan-Major avaient d’ailleurs présenté publiquement leur article « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 ») lors de la conférence FAccT 2021. La conférence reste sponsorisée par DeepMind, qui est une entreprise d’Alphabet. 

Le travail du clic et des données, vastes champs d’interrogations

Plusieurs articles présentés ce 13 juin s’attachent à décortiquer la dimension participative de l’entraînement des machines. Citons par exemple cette étude sur les « dimensions du travail de la donnée », selon laquelle nous sommes toutes et tous, internautes, des travailleurs du clic, qui générons de l’information, participons à entraîner des machines par l’intermédiaire de dispositifs comme reCAPTCHA, mais n’en avons pas nécessairement conscience. Ses auteurs proposent un cadre conceptuel à ce travail particulier, dans l’idée d’aider les réflexions de la société civile (chercheurs, activistes, législateurs, etc). 

Parmi les discussions, les chercheurs Timnit Gebru et Asmelash Teka, l’activiste Meron Estefanos et l’un des « entraîneurs » de ChatGPT, Richard Mathenge (qui raconte ici son histoire) débattront des traductions de ce que le mathématicien El Mahdi El Mhamdi qualifie d’ « apartheid numérique » dans la corne de l’Afrique. En l’occurrence, il s’agit pour eux d’étudier comment des travailleurs kényans, érythréens ou éthiopiens sont exploités pour effectuer le travail de nettoyage de la violence et de la désinformation présentes en ligne et celui d’entraînement des modèles utilisés en Occident quand, dans le même temps, ces machines embarquent très peu d’informations sur les communautés qui les entraînent.

Autre manière d’interroger les rapports de force entre ceux qui construisent les technologies, ceux qui les implémentent et ceux qui les utilisent, un travail se penche sur la possibilité qu’ont les employés d’entreprise de réellement consentir à l’usage de technologies au travail, notamment quand celles-ci sont présentées comme des outils d’amélioration de la productivité et du bien-être.

Biais, vie privée et régulation

Sujet de longue date aux conférences FAccT, les impacts sociaux des algorithmes seront interrogés de multiples manières. Une discussion interrogera ce 13 juin les réactions de la société civile aux cas de renforcement de la surveillance et/ou des préjugés raciaux via l’usage de technologies numériques par les forces de police américaine. Quant au mot « biais », il renvoie facilement à une dizaine d’articles scientifiques, dont plusieurs interrogent les liens entre protection des données sensibles ou tentative de lutter contre les discriminations avec les risques que peuvent poser les modèles algorithmiques concernés pour la vie privée.

Plusieurs travaux participent aussi aux réflexions sur la responsabilité des modèles algorithmiques ou interrogent les mécaniques de régulation en cours de construction dans le monde. Dans le contexte d’élaboration de l’AI Act européen, un article se penche en particulier sur les opportunités que les mécaniques d’évaluation des effets algorithmiques (algorithmic impact assessment) pourrait apporter dans des domaines au croisement des questionnements juridiques, sociaux et informatiques. Un panel sera aussi dédié à étudier le paysage de l’éthique et de la régulation de l’IA dans l’industrie technologique chinoise. 

À défaut de s'envoler pour Chicago, le grand public peut consulter ici de courtes présentations vidéos de chaque article revu par les pairs et présenté à la conférence.

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Le travail du clic et des données, vastes champs d’interrogations

Biais, vie privée et régulation

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (2)


L’article pourrait être intéressant mais la rédaction pique un peu. En espérant que le signalement d’erreur soit pris en compte.



Bon courage et bonne continuation.


Bien d’accord il y a des paragraphes entiers rendus difficilement compréhensibles. Merci de relire avant de mettre en ligne.