IA biaisée : la FTC rappelle qu'elle peut d'ores et déjà sévir

La Federal Trade Commission (FTC) rappelle que la loi l'autorise à interdire la vente ou l'utilisation, « par exemple », d'algorithmes biaisés à préjugés racistes, utilisés pour refuser aux gens un emploi, un logement, un crédit, une assurance ou d'autres avantages, ou qui entraîne une discrimination de crédit sur la base de la race, de la couleur, de la religion, de l'origine nationale, du sexe, de l'état matrimonial, de l'âge, ou parce qu'une personne reçoit une aide publique.

Elle indique avoir déjà utilisé son expertise pour rendre compte de l'analyse des mégadonnées et de l'apprentissage automatique, mener une audition sur les algorithmes, l'IA et l'analyse prédictive, mais également pour initier plusieurs actions contre des entreprises ayant trompé ou induit en erreur leurs utilisateurs et clients. 

Elle enjoint les développeurs d’intelligences artificielles à se comporter de manière responsable vis-à-vis des performances de leurs algorithmes, dire la vérité sur la façon dont ils utilisent les données, à « ne pas trop promettre » sur leurs fonctionnalités, et à « faire plus de bien que de mal », rappelant qu’en vertu de la loi FTC, « une pratique est injuste si elle cause plus de mal que de bien ».

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !