du 28 novembre 2018
Date

Choisir une autre édition

Après avoir présenté ses grands principes sur l'intelligence artificielle, Google revient à la charge sur un point précisé. Le géant du Net rappelle « l’importance de reconnaître que les algorithmes et les jeux de données pour l'intelligence artificielle sont le produit de l’environnement ».

Ainsi, « nous devons être conscients que les résultats générés sont potentiellement injustes ». Un risque déjà connu et cité dans de nombreux rapports sur l'intelligence artificielle, notamment celui de Cédric Villani (lire notre analyse), mais pas toujours facile à appréhender.

C'est dans cette optique que Google propose un module sur l'équité, avec des exercices pratiques, dont l'un des objectifs est de faire « prendre conscience des biais humains courants pouvant être reproduits par inadvertance par les algorithmes de machine learning ». Il n'est pour le moment disponible qu'en anglais, mais une version française devrait arriver bientôt.

Intelligence artificielle : Google veut favoriser l'équité dans le machine learning
chargement Chargement des commentaires...