Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
À Paris, un forum mondial pour « une intelligence artificielle responsable »Crédits : abidal/iStock/ThinkStock

Ouvert depuis lundi, le Global Forum on AI for Humanity fermera ses portes aujourd'hui. Le CNRS revient sur cet événement avec Malik Ghallab, directeur de recherche et co-organisateur de l'événement.

Il commence par rappeler que « l’objectif de cette conférence a été annoncé par le président de la République Emmanuel Macron il y a un an, en particulier dans le but d’éclairer les travaux d’une future organisation de coopération internationale sur l’IA ».

La France souhaite marquer son implication puisqu'elle organise ce premier rendez-vous, qui réunit 450 participants de 24 pays. Le but est « de dégager un consensus autour d'un développement responsable de l'IA ».

Cette approche comprend deux volets. « Le premier traite de la mobilisation des technologies issues de l'IA sur les grands défis actuels de l'humanité », le second est axé sur « une meilleure appréciation des risques inhérents à l’IA et sur les moyens à mettre en œuvre pour les circonscrire ».

« Toute technologie porteuse de bienfaits comporte aussi des risques. Les incertitudes inhérentes au développement et au déploiement rapide de l’IA et du numérique nécessitent, autant que possible, d’être anticipées et maîtrisées. Ainsi, l'automatisation de l’industrie et des services a des impacts sur la division sociale du travail et sa transformation », explique le scientifique. 

2 commentaires
Avatar de TexMex Abonné
Avatar de TexMexTexMex- 30/10/19 à 11:53:20

Je trouve que ce terme : « une intelligence artificielle responsable » sonne complètement faux.
 
 Autant dans la sonorité que lorsqu'on le rapproche du quotidien de monsieur tout le monde dans le numérique. Cela fait un effet d'arrivée en retard au cinéma au moment du générique de fin.

 Une perspective intéressante est que la SF avait vu quelques dérives depuis quelques décades. Dommage que cela n'ait pas inspiré les élus pour faire du préventif.

A moins que ce soit le début de la forge d'un outil pour brandir une taxe (supplémentaire?) sur les données personnelles. Mais ce serait encore un raté. En plus cela mettrai la loi du coté des exploitants de données in finé. Bin oui, on interdirait pas l'utilisation mais on la taxerai. Donc il faudrait un rendement pour que cela rapporte.

Après; tout dépend où on met le curseur quant au mot "responsable". Grosse interrogation.
 

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 30/10/19 à 13:59:56

Dans la réalité, je vois déjà 2 points qui pourrait être discuter :

  • faire attention à ce qui est appris et sur quoi.

  • la responsabilité des programmes et les décisions à prendre en cas de risque

    Cas qui est arrivé il y a 1 ou 2 ans : Amazon avait entraîné (en laboratoire) un programme à pré-trier les candidatures pour un poste donnée. Le programme donnait des résultat à priori correct par rapport à la base de donnée. Sauf que la base de donnée étant une "vrai" base de donnée, certain poste étaient majoritairement masculin et d'autre féminin. Le programme, qui ne fait que des statistiques plus ou moins avancé, avait appris à pénalisé selon le sexe et le poste à pourvoir car statistiquement, c'était logique.

    Parfois, un problème mal posé peut donner des solutions... inattendu.

    Pour le second point, je pense par exemple au questionnaire de Google à propos des choix à faire en cas d'accident en voiture (un programme peut prendre une décision apprise, là où un humain va faire un choix dans la panique) ou à la place qu'aurait un programme d'aide au diagnostiques médicaux (quelle est la responsabilité ici en cas de mauvais diagnostique).

Il n'est plus possible de commenter cette actualité.