Intelligence artificielle : Google veut favoriser l'équité dans le machine learning

Après avoir présenté ses grands principes sur l'intelligence artificielle, Google revient à la charge sur un point précisé. Le géant du Net rappelle « l’importance de reconnaître que les algorithmes et les jeux de données pour l'intelligence artificielle sont le produit de l’environnement ».

Ainsi, « nous devons être conscients que les résultats générés sont potentiellement injustes ». Un risque déjà connu et cité dans de nombreux rapports sur l'intelligence artificielle, notamment celui de Cédric Villani (lire notre analyse), mais pas toujours facile à appréhender.

C'est dans cette optique que Google propose un module sur l'équité, avec des exercices pratiques, dont l'un des objectifs est de faire « prendre conscience des biais humains courants pouvant être reproduits par inadvertance par les algorithmes de machine learning ». Il n'est pour le moment disponible qu'en anglais, mais une version française devrait arriver bientôt.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !