Un rapport européen épingle les risques de l’intelligence artificielle

Davantage s'inspirer de Wall-E que de Terminator 20
Accès libre
image dediée
Crédits : wildpixel/iStock
Nouvelle Techno
Par
le mardi 06 juin 2017 à 15:00
Sébastien Gavois

L'intelligence artificielle va être un bouleversement important pour les travailleurs explique le Comité économique et social européen. Dans un rapport, il dévoile ses recommandations sur le sujet, avec un accent mis sur le côté social évidemment. Emplois, éthique, influence sur nos décisions et éducation sont autant de points abordés. 

Depuis plusieurs années, l'intelligence artificielle – au sens large du terme – connait des progressions fulgurantes dans de nombreux domaines. Dernier exemple en date, la victoire sans appel 3 à 0 d'Alpha Go (créé par DeepMind, une filiale de Google) sur Ke Jie, qui est considéré comme le numéro un mondial au jeu de Go. Mais l'intelligence artificielle soulève aussi de nombreuses questions, aussi bien éthiques, technologiques que sociétales. 

En 2017, les institutions françaises découvrent-elles l'Intelligence artificielle ? 

L'année 2017 semble être synonyme de réveil pour la France sur ces sujets, enfin diront certains. Avec le projet France IA au début de l'année, le gouvernement a ainsi dévoilé son plan de bataille sur l'intelligence artificielle, avec pour but de recenser les forces en présence. Fin mars le premier rapport était publié (voir notre compte rendu), avec sept recommandations à la clé.

Il y a trois semaines, c'était au tour de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), un organe d'information mixte entre l'Assemblée nationale et le Sénat, de faire le point sur l'intelligence artificielle, là encore avec une série de recommandations. Le document de pas moins de 275 pages est intéressant, car il regorge de contributions des géants du secteur, de start-ups et d'organes de régulation (dont la CNIL), comme nous l'avons détaillé dans notre compte rendu.

Il y a quelques jours, c'est le Comité économique et social européen (CESE) qui est entré dans la danse avec un avis intitulé Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société. Celui-ci a été adopté en session plénière le 31 mai et aborde les différentes facettes de l'IA, avec un accent sur les changements qu'elle apportera à notre société.

En plus de faire un énième point de situation, le CESE explique en effet qu'en tant que représentant de la société civile, il souhaite lancer et centraliser un débat de société sur l'intelligence artificielle et « promouvoir le développement de l’IA au bénéfice de l’humanité ». Comment ? Avec là encore une série de recommandations.

Le Comité économique et social européen fait le point sur ses avantages et... ses risques

Comme souvent en pareille situation, le rapport commence par faire le tour des bienfaits que pourrait apporter l'intelligence artificielle au quotidien : « rendre l’agriculture plus durable et les processus de production moins polluants, améliorer la sécurité des transports et sur le lieu de travail, rendre le système financier plus stable, fournir des soins médicaux d’une meilleure qualité » et ainsi de suite. Dans sa synthèse, l'organe consultatif de l'Union européenne va jusqu'à supposer que l'intelligence artificielle « pourrait même contribuer à éradiquer les maladies et la pauvreté ». Tout un programme...

Mais avant d'en arriver là, le chemin est long et semé d'embuches. Le CESE pointe du doigt onze domaines où il faut définir un cadre : l’éthique, la sécurité, la vie privée, la transparence et l’obligation de rendre des comptes, le travail, l’éducation et les compétences, l’(in)égalité et l’inclusion, la législation et la réglementation, la gouvernance et la démocratie, la guerre, et enfin la superintelligence.

Essayer de placer l'Europe au cœur des débats et définir des normes

Pour y arriver, il souhaite que le vieux continent joue « un rôle moteur » et définisse des normes. « Nous avons besoin d'un code éthique paneuropéen garantissant que les systèmes d’IA restent compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux » explique Catelijne Muller, rapporteure de cet avis. Il s'agirait donc de mettre en place une « infrastructure d'IA européenne », permettant d'obtenir plus de poids que chaque pays individuellement.

Une intention louable, mais qu'adviendra-t-elle avec les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) qui sont parmi les plus gros pourvoyeurs de solutions autour de l'intelligence artificielle ? Ces derniers ne sont en effet pas européens et les règles sur les autres continents ne sont pas vraiment les mêmes.

Afin d'avoir une position globale sur le sujet, le CESE souhaite également voir « l’élaboration et l’établissement d’un code éthique uniforme applicable à l’échelle mondiale pour le développement, le déploiement et l’utilisation de l’IA ». Néanmoins, cette proposition risque d'avoir du mal à trouver un écho au niveau de la planète entière, notamment en cette période où certains ont plutôt tendance à tirer la couverture à eux plutôt qu'à ajouter la carte de l'ouverture à la communauté.

Encore et toujours la délicate question des données, avec l'éthique en trame de fond

Si le CESE note à juste titre qu'une bonne partie des entreprises spécialisées dans l'IA (notamment les GAFAM) proposent en open-source leurs plateformes et algorithmes, il ne précise en revanche pas que ce n'est pas le cas des jeux de données. Problème, sans données, un algorithme ne sert pas à grand-chose puisqu'on ne peut pas l'entrainer efficacement à réaliser sa tâche.

Comme nous n'avons de cesse de le répéter au sujet de l'intelligence artificielle, cette dernière va en effet de pair avec des jeux de données en très grosses quantités (on parle de milliards de clichés pour de la reconnaissance d'images par exemple). Or, le choix des données peut introduire des biais suivant leurs provenances et leur « diversité », comme le rappelle le CESE :

Le développement de l’IA se déroule dans un environnement homogène, composé principalement de jeunes hommes blancs, ce qui contribue à ancrer (sciemment ou non) les disparités culturelles et de genre dans l’IA, notamment du fait que les systèmes d’IA apprennent sur la base de données de formation. Il importe que celles-ci soient correctes, mais également de qualité, diversifiées, suffisamment approfondies et objectives.

L’on croit généralement que les données sont objectives par définition, mais il s’agit là d’une erreur. Elles sont faciles à manipuler et peuvent être tendancieuses, influencées par des préférences et préjugés culturels, de genre ou autres, ou encore être erronées.

De quoi relancer le débat sur la quantité des données versus leur qualité : quel critère faut-il privilégier en premier ? De plus, l'intelligence artificielle n'intègre pas la notion d'éthique par défaut, c'est donc à l'homme de l'implémenter correctement, ajoute le comité.

L'humain en haut de la pyramide, une collaboration possible avec la machine

Afin d'éviter que l'humain soit relégué au second plan, le Comité économique et social européen souhaite que le développement de l'IA se fasse de manière « responsable, sûr et utile [...] dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains ». Même son de cloche à la CNIL qui veut mettre en avant un modèle de type « humanity by design ».

Si pour le moment le problème du contrôle ne se pose pas vraiment, il arrivera certainement avec une IA forte capable d'avoir conscience d'elle-même. Le comité plaide aussi pour un système de normalisation permettant de vérifier, valider et contrôler les IA, justement dans l'idée d'anticiper une telle évolution (elle ne devrait pas arriver avant plusieurs dizaines d'années au moins selon les experts).

Comme le projet France IA l'avait expliqué il y a quelques mois, le CESE estime qu'il est possible de mettre en place un travail conjoint entre l'humain et l'intelligence artificielle, de quoi donner au final un travailleur « augmenté ».

Si pratiquement tout le monde sera touché par l'automatisation d'une partie de ses tâches, le risque qu'un robot ou une IA reprenne l'ensemble des fonctions d'un humain serait assez faible si l'on en croit le rapport. Il n'est pour autant pas inexistant avec le cas des chauffeurs de taxis ou de VTC par exemple. Ils subiront certainement de plein fouet l'arrivée des véhicules entièrement autonomes.

IA cerveau homme
Crédits : Jirsak/iStock

Des risques sur l'emploi qu'il faut anticiper 

Concernant la mise en place de nouveaux emplois liés à l'intelligence artificielle, le CESE explique « que personne ne peut encore prédire en quoi ils consisteront, quel sera leur nombre, ni à quelle vitesse cela se produira ». Mais il ne s'agira pas toujours « d'emplois de qualité », le Comité reste donc prudent sur ce point. « On peut se demander avec inquiétude s’il ne restera bientôt plus que des minitâches faiblement rémunérées pour un groupe de travailleurs flexibles de plus en plus important » note le rapport.

En plus de pouvoir surveiller les travailleurs, les systèmes d'IA « peuvent également entraîner un risque d’appauvrissement des activités et de perte de compétences majeures ». Bref, pour le CESE les robots et algorithmes peuvent venir aider les humains, au prix d'une supervision risquant de porter atteinte à leur autonomie et vie privée, tout en diminuant leurs compétences. 

Pour le Comité, il faut que les pouvoirs publics se demandent ce que les humains sont en mesure de faire (pour le moment) et surtout définir les tâches que nous, l'espèce humaine, voulons continuer à réaliser nous-même, y compris si une IA était en mesure de la faire.

« Après tout, c’est à nous qu’il appartient de décider si nous voulons que certains emplois soient confiés à l’IA, qu’elle soit chargée de donner des soins ou de prendre des décisions médicales, et si nous voulons accepter qu’elle mette en péril notre sécurité, notre vie privée ou notre autonomie » explique Catelijne Muller.

Adapter l'éducation aux métiers du futur

Une conséquence directe de cet état des lieux est l'importance de l'éducation. Il faut effectivement anticiper les métiers qui seront remplacés par des intelligences artificielles à court terme afin de mettre en place des filières où l'humain gardera sa place – par nécessité ou choix politique – et ceux avec une interaction personne-machine.

Dans tous les cas, il faudra prévoir d'enseigner à tout le monde la définition et la portée de l'intelligence artificielle, dès le plus jeune âge. Les enfants d'aujourd'hui baigneront encore plus que nous dans un monde rempli d'algorithmes, et il ne faudrait pas qu'une autre fracture numérique arrive, après celle d'Internet pour certains ainés.

Le CESE souhaite que les notions d'éthique et de vie privée soient également abordées dans les écoles, mais cela aurait pu (dû ?) être le cas bien avant l'arrivée de l'intelligence artificielle.

La délicate question des armes autonomes et de la cyberguerre

Comme bon nombre d'autres organisations, le CESE soutient l'appel à l’interdiction des systèmes d’armes autonomes, mais estime que la question devrait se poser plus largement à la cyberguerre.

L'idée est séduisante sur le papier, mais il n'y a malheureusement que peu de chance que tous les gouvernements et sociétés privées d'armement laissent de côté l'intelligence artificielle pour le développement de leurs armes, numériques ou non. C'est de toute façon déjà plus ou moins trop tard avec les drones et l'interception automatique de messages sur Internet.

Selon ce rapport, il « convient d’éviter que l’IA ne parvienne entre les mains de personnes ou de régimes susceptibles de l’utiliser à des fins terroristes »... certainement plus facile à dire qu'à faire.

Quid de la sécurité ?

Le rapport soulève ensuite plusieurs questions concernant la sécurité des machines. Il souhaite que des exigences spécifiques soient mises en place afin de répondre et d'anticiper les questions suivantes : l'algorithme est-il fiable et efficace, y compris dans une situation inconnue ou imprévisible ? Peut-il cesser de fonctionner ou être piraté ? Les réponses ne devant pas être prises à la légère.

Comme nous avons régulièrement l'occasion de le voir en matière de sécurité informatique, le risque zéro n'existe pas. Les conséquences d'une défaillance pourraient néanmoins être bien différentes entre une IA chargée de filtrer des sites pour un contrôle parental et celle d'une voiture autonome.

Se pose également la question de la personnalité juridique des robots. Le CESE a d'ailleurs un avis bien tranché sur le sujet : la reconnaitre représenterait un « risque moral inacceptable ».

Autant de transparence qu'une épaisse boîte noire

Le comité explique ensuite que, bien trop souvent, les systèmes exploitant de l'IA sont difficiles à comprendre pour l'utilisateur... lorsqu'ils sont au courant qu'ils ont affaire à une intelligence artificielle.

Pour rappel, dans le bilan de l'OPECST, le psychiatre et chercheur à l’Université Paris Diderot-Paris Serge Tisseron militait pour que les humains soient toujours informés de la situation lorsqu'ils interagissent avec une IA, certains n'en ayant pas forcément conscience (nous parlons bien des humains, pas des machines).

Pire, on retrouverait ce manque de compréhension chez un nombre croissant de concepteurs de ces systèmes. « En particulier, les réseaux neuronaux sont souvent des boîtes noires (black boxes) dans lesquelles se déroulent des processus (de prise de décision) qui sont devenus incompréhensibles et pour lesquels aucun manuel explicatif n’est fourni ».

Pour le comité, il faut donc plus de transparence et la mise en place de systèmes d'IA dont on peut expliquer le fonctionnement (et donc les décisions) a posteriori.

La vie privée, l'influence de l'IA sur nos décisions

À son tour, ce rapport s'inquiète des données personnelles mises à disposition des intelligences artificielles et des conclusions qu'elles peuvent en tirer sur les individus.

Les réseaux sociaux et les moteurs de recherches sont directement visés : « L'IA est en mesure [...] d'influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums) ». Pour bien préciser les choses et ne laisser aucune place au doute, le rapport indique qu'il « s’agit d’une menace pour une démocratie ouverte et équitable ».

Le comité s'attarde plus particulièrement sur le cas des enfants, présenté comme étant un groupe « particulièrement vulnérable ». Il exprime en effet « sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants ».

Pour ne pas se retrouver dans cette situation, il convient donc « d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus ». Bon point, la protection des données personnelles lors d'une transmission par voie numérique sera prochainement renforcée par le règlement général de l'UE.

Une conclusion en deux points : garder le contrôle, regrouper les acteurs européens 

Pour résumer, le CESE dresse un bilan principalement axé sur l'impact que l'intelligence artificielle aura sur la vie des personnes, que ce soit au travail ou dans leur vie privée. Ils seront plus ou moins importants, mais tout le monde sera à priori concerné, il faut donc s'y préparer. Dans tous les cas, le Comité plaide pour que l'humain garde la maitrise de l'IA en toute circonstance, et se prépare à l'arrivée d'une intelligence artificielle forte.

Il recommande aussi à l'Europe de se placer au cœur des débats, mais ce ne sera pas un combat facile étant donné que la grande majorité des sociétés à la pointe sur ce domaine se trouve en dehors de nos frontières. Certes les start-ups et les centres de recherches sont nombreux dans l'Hexagone (avec une bonne réputation en général), mais ceux disposant et exploitant massivement les données se trouvent en dehors de l'Europe.


chargement
Chargement des commentaires...