Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Intelligence artificielle : l'Europe veut des « lignes directrices en matière d'éthique »Crédits : abidal/iStock/ThinkStock

La Commission lance une « phase pilote » pour des « lignes directrices en matière éthique pour le développement de l'intelligence artificielle ».

Cette démarche s'inscrit dans la stratégie européenne sur l'intelligence artificielle lancée en 2018. Pour la Commission, sept éléments sont essentiels pour parvenir à une IA « digne de confiance » :

  • Facteur humain et contrôle humain
  • Robustesse et sécurité
  • Respect de la vie privée et gouvernance des données
  • Transparence
  • Diversité, non-discrimination et équité
  • Bien-être sociétal et environnemental
  • Responsabilisation

À partir de cet été, la Commission va recueillir les réactions des parties prenantes puis « élaborer un consensus international pour une IA centrée sur l'humain ». Elle souhaite également « porter son approche en matière d'IA sur la scène internationale ».

Pour y arriver, elle « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».

14 commentaires
Avatar de tpeg5stan Abonné
Avatar de tpeg5stantpeg5stan- 09/04/19 à 08:57:40

Je suis en accord avec 5 des points, mais deux m'ont l'air soit bien trop vague, soit impossible à implémenter :
* Diversité, non-discrimination et équité
* Bien-être sociétal et environnemental

Ça va finir comme 2001 l'odyssée de l'espace :

  • HAL, on prend la voiture pour voir mamie à la maison de retraite

  • Je suis désolé Dave, tu as beaucoup pris la voiture ce mois-ci, ça va contre ton bien-être environnemental. Et mamie est en mauvaise santé, ça va contre ton bien-être sociétal.

    Ou bien

  • HAL, on va boire une bière avec des potes

  • Je suis désolé Dave, c'est discriminatoire envers ceux qui n'aiment pas l'alcool. Et il n'y a pas de diversité, il faudrait que tu boives aussi du vin et de l'alcool fort.

Édité par tpeg5stan le 09/04/2019 à 08:58
Avatar de Kevsler INpactien
Avatar de KevslerKevsler- 09/04/19 à 08:57:55

Si déjà ils appliquaient ces règles éthiques à leur politique et leurs politiciens... Bon, OK, ils seraient en grande partie chômeur ou prisonnier, mais y'aurait une droiture éthique à s'appliquer à soi-même les règles éthiques que l'ont prétend souhaiter pour des IA.

Pourtant, c'est plus simple (même si ce n'est pas simple) d'appliquer à soi-même, humain, ces règles éthiques, plutôt que de compter sur des technos pas maîtrisées pour donner un semblant de sens à nos politiques.

Bref... #fullBullshit

Avatar de js2082 INpactien
Avatar de js2082js2082- 09/04/19 à 09:18:25

J'avoue que je ne comprends aucun des éléments essentiels évoqués.

C'est bien simple:
 
 - le Facteur humain et contrôle humain, Transparence, le Respect de la vie privée et gouvernance des données sont déjà impossible : on parle ici d'un programme qui contiendrait des millions et même des milliards de lignes de code. C'est tout simplement et humainement impossible à gérer et à contrôler. On demande une programmation utopique en clair.
 

  • la Robustesse et sécurité et Responsabilisation me font bien rire : il est impossible de sécuriser un logiciel  à 100% et même en y mettant le plus de protection, il y aura toujours une faille pour réduire à néant celle-ci

  • Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n'est que le reflet de ses concepteurs.

     

Avatar de spidermoon Abonné
Avatar de spidermoonspidermoon- 09/04/19 à 10:29:04

L’IA sera le reflet des donnés sur lesquelles se base sont apprentissage, donc elle sera biaisée et partiale si on laisse faire n’importe quoi. Ça me rappelle la tentative de bâtir une IA à partir des réponses des internautes.

Avatar de loser Abonné
Avatar de loserloser- 09/04/19 à 10:48:17

js2082 a écrit :

 - Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n'est que le reflet de ses concepteurs. 
    

 
Certains cas "amusants" (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d'apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.

Avatar de js2082 INpactien
Avatar de js2082js2082- 09/04/19 à 11:48:16

loser a écrit :

 
Certains cas "amusants" (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d'apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.

Je vais jouer sur les mots : sachant que l'IA est issue à la fois de la programmation et des données qui l'alimentent, ses concepteurs, ceux qui permettent son émergence, sont donc ceux qui la programment et ceux qui l'alimentent aussi. Tous deux conçoivent l'IA, apportent sa pierre à sa construction (qui se fait en continu par apprentissage).
 

Avatar de ProFesseur Onizuka Abonné
Avatar de ProFesseur OnizukaProFesseur Onizuka- 09/04/19 à 12:32:15

+1

La Commission exige que l'IA fasse ce qu'elle dit... qui est le contraire de ce qu'elle fait: l'IA va se petit suicider à ce rythme :mdr:

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 09/04/19 à 12:48:27

Une IA qui se petit suicide, on pourra dire que l'IA a eu une petite mort ? :mdr:

Édité par tazvld le 09/04/2019 à 12:48
Avatar de sinbad21 INpactien
Avatar de sinbad21sinbad21- 09/04/19 à 14:44:48

Les premiers clients de l’IA sont les armées, impatientes d’avoir un coup d’avance sur les autres pour trouver le meilleur moyen de pulvériser l’ennemi. Une des toutes premières notions inculquées à l’IA est celle de terroriste.

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 09/04/19 à 16:08:34

Bwarf, les "IA" règnent déjà sur les marchés boursiers.
Après, l'argent, la guerre, il ne reste plus que le 3ième secteur : le sexe. A voir ce que vont proposer les industriels du domaine, même si le deep face fait déjà des émules.

Il n'est plus possible de commenter cette actualité.
Page 1 / 2