Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Et si on encadrait les IA comme les médicaments ?

Professeur émérite d'intelligence artificielle et de robotique, Noel Sharkley estime que les algorithmes sont tellement « infectés de biais » qu'il appelle les autorités britanniques à cesser immédiatement tous ceux qui pourraient contribuer à des décisions pouvant changer des vies – en matière d'emploi, d'aide sociale ou d'immigration notamment.

Interrogé par le Guardian, le scientifique, figure de proue du mouvement contre les robots tueurs, voudrait leur appliquer la même rigueur que celle avec lesquels sont contrôlés et validés les médicaments, et les tester sur des millions ou au moins des centaines de milliers de gens pour s'assurer qu'ils ne sont pas biaisés avant tout déploiement.

20 commentaires
Avatar de secouss Abonné
Avatar de secousssecouss- 16/12/19 à 09:28:47

En voilà une idée qu'elle est bonne, faudrait muscler un peu les règles par contre, actuellement les conflits d’intérêts sont légion.

Avatar de Qruby Abonné
Avatar de QrubyQruby- 16/12/19 à 09:34:05

Je ne comprends pas très bien, chaque information, et donc chaque décision, est infestée de biais. On ne régule pas les journaux pour éviter leurs biais... On en est conscient, et on évite de penser que les journaux sont des sources fiables, mais sans renier leur utilité! Pour l'aide à la décision par ordinateur, c'est pareil.

On pourrait très bien appliquer le raisonnement de Noel à la politique dans son ensemble: chaque mesure devra être testée comme les médicamments, notemment celles en matière d'emploi, d'aide sociale ou d'immigration notamment. J'aime la démarche scientifique, mais j'ai un doute que cela passe.

Avatar de CryoGen Abonné
Avatar de CryoGenCryoGen- 16/12/19 à 10:15:11

Si un algorithme peut changer une vie, il faut surtout ajouter un contrôle humain du résultat. Les tests n'y changeront rien, un contrôle par un humain en chair et en os est nécessaire.
L’algorithme doit faire remonter les indicateurs nécessaires pour permettre de contrôler son résultat.

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 16/12/19 à 10:22:38

Le biais risque d'être très difficile à détecter car sur quoi "noter" ce biais ?
En effet, le si le modèle a appris à optimiser un score qui inclus la note de biais, alors elle optimisera cette note. Le modèle ne sera pas plus pas moins biaisé, elle paraîtra seulement moins biaisé.

Genre d'exemple (un peu simpliste) : on demande a une machine d'apprendre à faire une sélection de quelques candidats pour un poste parmi un liste de CV. Dans un but étique, on voudrait qu'elle ne fasse pas de distinction de sexe ou d'origine. Bêtement, on veut donc que la sélection de candidat soit représentative des CV données en entrée. La machine, très conne, va très certainement apprendre a reconnaître le sexe et l'origine des personne derrière chaque CV (si elle a les noms, c'est gratuit), va trouver ainsi les poids de chaque catégorie et enfin faire sa sélection en fonction.

Avatar de alex.d. Abonné
Avatar de alex.d.alex.d.- 16/12/19 à 10:46:18

Ça me rappelle l'histoire d'une IA qui avait été entraînée à reconnaître des photos de chevaux, et y arrivait avec vraiment un score impressionnant avec les images d'entraînement, mais se plantait lamentablement sur des images prises au pif. Il a fallu quelque temps pour se rendre compte que l'IA s'était entraînée à reconnaître le filigrane de horsesphotos.com !
Moralité de l'histoire : on ne sait pas ce que fait une IA réellement, c'est une boîte noire. Ce serait kamikaze de lui confier des vies.
 

Avatar de M'enfin ! INpactien
Avatar de M'enfin !M'enfin !- 16/12/19 à 10:52:54

Les IA vont être appelées à donner une information qui fera intervenir de très nombreux paramètres, tellement nombreux que cela dépasse les capacités humaines. Oui un journal est biaisé, mais ce n'est qu'un journal, en tant qu'être humain je peux encore m'en rendre compte (et encore, dans les sujets que je connais un tant soit peu).

Quand l'IA nous donnera une information, une "décision" faisant intervenir des paramètres complexes mixant économie, sociologie, parcours pro, santé publique et personnelle, etc... ça va être très compliqué.

Ca peut être une raison de plus d'ailleurs de limiter le recours aux IA... je ne dis pas le contraire ;-)

Avatar de 127.0.0.1 INpactien
Avatar de 127.0.0.1127.0.0.1- 16/12/19 à 11:07:45

Professeur émérite d'intelligence artificielle et de robotique, Noel Sharkley estime que les algorithmes sont tellement « infectés de biais » qu'il appelle les autorités britanniques à cesser immédiatement tous ceux qui pourraient contribuer à des décisions pouvant changer des vies – en matière d'emploi, d'aide sociale ou d'immigration notamment.

Tu remplaces "algorithmes" par "politiciens" ou "institutions" et ca fonctionne aussi... :D

Avatar de j-dub INpactien
Avatar de j-dubj-dub- 16/12/19 à 11:28:26

Ce serait bien d'arrêter de faire l'amalgame entre algorithme et IA.

Avatar de anonyme_f6b62d162990fde261db0e0ba2db118e Abonné

Qruby a écrit :

Je ne comprends pas très bien, chaque information, et donc chaque décision, est infestée de biais. On ne régule pas les journaux pour éviter leurs biais... On en est conscient, et on évite de penser que les journaux sont des sources fiables, mais sans renier leur utilité! Pour l'aide à la décision par ordinateur, c'est pareil.

On pourrait très bien appliquer le raisonnement de Noel à la politique dans son ensemble: chaque mesure devra être testée comme les médicamments, notemment celles en matière d'emploi, d'aide sociale ou d'immigration notamment. J'aime la démarche scientifique, mais j'ai un doute que cela passe.

Yep!

En plus il faudrait (re)définir biais. Pour le scientifique un biais est une erreur.
Si un algo "discrimine" les femmes ou les musulmans ou les roux, et que c'est justifié mathématiquement (ça arrivera forcément sur des milliers de décisions à prendre), ce n'est pas un biais scientifique... mais un problème moral. La machine peut nous aider énormément pour traiter de la donnée et obtenir des indicateurs, mais elle a ses limites qui sont justement celles de sa recherchée infaillibilité.
Veut-on éviter seulement les erreurs scientifiques ou aussi faire preuve de justice et de moralité dans la société...?

Avatar de Qruby Abonné
Avatar de QrubyQruby- 16/12/19 à 12:22:24

recoding a écrit :

Yep!

En plus il faudrait (re)définir biais. Pour le scientifique un biais est une erreur.
Si un algo "discrimine" les femmes ou les musulmans ou les roux, et que c'est justifié mathématiquement (ça arrivera forcément sur des milliers de décisions à prendre), ce n'est pas un biais scientifique... mais un problème moral. La machine peut nous aider énormément pour traiter de la donnée et obtenir des indicateurs, mais elle a ses limites qui sont justement celles de sa recherchée infaillibilité.
Veut-on éviter seulement les erreurs scientifiques ou aussi faire preuve de justice et de moralité dans la société...?

Je pense qu'il est question des erreurs scientifiques ici, car les algo de machine learnings apprennent sur des jeux de données biaisés, et font des prédictions (ou optimisations) sur des données réelles. Il y a une grande méconnaissance du fonctionnement de ces algorithmes, du coup il y a une crainte de ce qu'ils font. Cependant, c'est surtout ce sur quoi ils se basent qui est biaisé. Tout comme un journal qui a des sources et qui traite l'information à partir de sources parcellaires.

Il n'est plus possible de commenter cette actualité.
Page 1 / 2