Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

#FranceIA : le plan de bataille de la France sur l'intelligence artificielle

Il faut éviter la « bêtise artificielle »
Tech 6 min
#FranceIA : le plan de bataille de la France sur l'intelligence artificielle
Crédits : VLADGRIN/iStock/Thinkstockl

L'intelligence artificielle est sans aucun doute une technologie d'avenir qui soulève de nombreuses questions, mais aussi des craintes. Dans tous les cas, la France compte être un des moteurs de son développement et le gouvernement lance ainsi des groupes de réflexion à travers son projet « France IA ».

Ce matin, le gouvernement organisait une conférence de presse afin de lancer son projet « France IA ». Il s'agit de définir « les orientations stratégiques de la France dans le domaine de l’intelligence artificielle ». Comme nous avons déjà eu l'occasion de l'évoquer à de nombreuses reprises, cela touche de très nombreux domaines, avec d'importants débouchés, mais aussi des problématiques liées à l'exploitation des données.

La France veut être présente et Thierry Mandon tire la sonnette d'alarme

Avec plus de 200 start-ups recensés dans le domaine de l'intelligence artificielle, la France veut continuer à jouer un rôle important... mais aussi éviter une fuite de ses cerveaux et entrepreneurs à l'étranger. Thierry Mandon explique d'ailleurs que la recherche « est en grand danger » et qu'aujourd'hui, les centres français « sont pillés ». « Leurs chercheurs sont débauchés par des sociétés qui ne sont pas françaises et qui ont le bon goût de ne pas payer d'impôt en France » tonne-t-il.

Sans être directement cité, on lit entre les lignes qu'il est notamment question de Facebook. Pour rappel, fin 2013, le réseau social a justement recruté le français Yann Le Cun comme directeur pour son laboratoire de recherche sur l'intelligence artificielle. 

L'intelligence artificielle, entre fantasmes et peur

Pour entrer dans le vif du sujet, notre confrère Jacques Henno explique qu'autour de l'intelligence artificielle, il y a « toute une série de fantasmes et de peurs, sur les robots tueurs ». Derrière cette idée, deux concepts : symboliques d'abord avec des risques sur les emplois, et plus terre à terre ensuite avec les armes.

Mais, comme le résume Axelle Lemaire un peu plus tard durant la conférence, « l'intelligence artificielle en soit, ce n’est pas bien ou mouvais, c'est une technologie et comme tout outil ça dépend de ce qu'on veut en faire ». Un sujet que nous avions déjà largement abordé dans nos colonnes.

Une crainte largement plus présente en France qu'aux USA

La secrétaire d'État au numérique et à l'innovation souhaite justement que la France continue à jouer un rôle de locomotive : « l'intelligence artificielle est là, elle va se développer avec un potentiel extraordinaire ». Mais elle rappelle également que c'est un sujet sensible. Elle cite ainsi une étude (sans aucune précision) selon laquelle « 65 % des Français ont peur de l'intelligence artificielle », contre seulement 22 % des personnes aux États-Unis.

Isabelle Falque-Pierrotin, la présidente de la CNIL était également sur place, et rejoint Axelle Lemaire sur la préoccupation des Français. Dans un sondage demandé à Ipsos, mais qui ne sera dévoilé que lundi prochain à l'occasion du premier grand débat sur les algorithmes (qui sera diffusé sur YouTube), elle explique qu'il ressort « des chiffres un peu préoccupants ». Lesquels ? Il faudra attendre la semaine prochaine pour le savoir...

La délicate question des données (personnelles)

Il y a au moins une raison à cela : « les données c'est le cœur de l'IA » rappelle la présidente de la Commission nationale de l'informatique et des libertés. Pour rappel, afin d'apprendre à reconnaitre un objet dans une image, il faut qu'une intelligence artificielle dispose d'une base de données de plusieurs millions ou milliards d'images de référence. Dans le cas de Facebook par exemple, les photos que vous publiez sont une aide précieuse et surtout... gratuite pour le réseau social.

Mais qui dit données, dit également informations personnelles. Rand Hindi, entrepreneur et membre du Conseil National du Numérique, ne s'en cache pas : pour que les assistants numériques fonctionnent correctement, il faut qu'ils aient « accès à un maximum de données sur la vie des gens ». Néanmoins, il ajoute rapidement cela ne veut pas dire qu'il faut pour autant laisser complètement tomber sa vie privée. Par exemple, les données pourraient très bien être traitées localement sur les machines.

Le chiffrement homomorphe à la rescousse

Et ce n'est pas tout, il est également possible de « faire du machine learning sur des données chiffrées récupérées de plusieurs utilisateurs différents ». Cette technologie porte d'ailleurs un nom : le chiffrement homomorphe. Ainsi, chaque utilisateur peut envoyer des données chiffrées qui servent de base pour des calculs, sans avoir besoin d'être déchiffrées pour cela. 

France IA

Au-delà du traitement des données (chiffrées ou non), Jean-Louis Fréchin, designer numérique et fondateur de NoDesign.net, explique qu'il faut ouvrir « la boite noire », c'est-à-dire laisser accessibles les algorithmes afin que chacun puisse vérifier comment les données sont utilisées. Plusieurs géants du secteur ont d'ores et déjà commencé à ouvrir leurs algorithmes... mais pas leurs données, qui sont pourtant le carburant des intelligences artificielles.

Attention à la « bêtise artificielle »

Si la donnée est la base de base de l'intelligence artificielle, Laurence Devillers, professeur d'informatique et membre du CNRS, explique que cette matière première qui peut engendrer « des dégâts énormes » suivant l'utilisation qui en est faite. Il faut ainsi bien s'assurer que les données soient neutres et n'induisent aucun biais dans les algorithmes. De l'intelligence artificielle, on peut facilement se retrouver à « faire de la bêtise artificielle » lâche-t-elle.

Se pose également la question de l'éthique de l'intelligence artificielle, un sujet déjà abordé avec la problématique du choix des victimes par une voiture autonome en cas d'un accident mortel (voir cette actualité). Isabelle Falque-Pierrotin rappelle que ce débat n'est pas simplement franco-français : « tous les pays sont en train de toucher du doigt » cette question, « on a un fil rouge vraiment mondial sur cette question de l'éthique de l'intelligence artificielle et des algorithmes ».

France IAFrance IA

En guise de conclusion de cette partie sur la présentation de l'intelligence artificielle, Jean-Louis Fréchin explique que « même s'il y a des risques, il faut y aller ». Il sera d'ailleurs rejoint par Thierry Mandon en fin de conférence : « Il faut y aller maintenant, sinon ça sera trop tard ». France IA est justement là pour établir un plan de bataille.

Sept groupes de travail sur l'intelligence artificielle

Afin de déblayer le terrain, sept groupes de travail ont ainsi été annoncés, chacun centré sur un sujet précis : 

  • Établir une cartographie nationale des activités en intelligence artificielle
  • Identifier et définir la priorisation des sujets de recherches
  • Identifier et définir les priorités sur les besoins en formation
  • Préparer l'industrialisation de l'intelligence artificielle (mettre en relation les centres de recherche et l'industrie)
  • Développer l'écosystème de l'intelligence artificielle en France
  • Définir les règles de souveraineté et de sécurité nationale
  • Anticiper les impacts macro-économiques et sociaux, notamment sur les emplois

Comme on peut le voir, il s'agit principalement d'organiser les différentes institutions (publiques et privées) autour d'un projet commun : l'intelligence artificielle. David Sadek, qui préside le premier groupe, explique que « quand on veut livrer bataille, il faut faire l'inventaire de ses forces ». Une manière de présenter sa mission principale (cartographier l'IA en France), mais qui peut facilement s'étendre à l'ensemble de ce projet.

Notez que des regroupements plus petits seront également de la partie afin de plancher sur des sujets plus précis. Il est notamment question des véhicules autonomes, du monde de la finance, de la relation client, etc. Rien n'est définitif et des ajustements peuvent être faits si nécessaire.

Un rapport sera présenté fin mars

Ces groupes devront rapidement rendre leur premier bilan puisque la fin des travaux est prévue pour le 14 mars 2017. Le 21 mars aura lieu une réunion du comité d'orientation afin que les responsables de groupes puissent présenter leurs conclusions. Enfin, le 28 mars sera le jour de la remise du rapport. Il sera alors temps de faire le point sur les propositions qui seront faites.

31 commentaires
Avatar de revker INpactien
Avatar de revkerrevker- 20/01/17 à 14:06:34

Signaler ce commentaire aux modérateurs :

C'est quand même plus dangereux que la création d'une machine lambda. Il s'agit ici de munir une machine d'un libre arbitre.

Avatar de DUNplus Abonné
Avatar de DUNplusDUNplus- 20/01/17 à 14:08:16

Signaler ce commentaire aux modérateurs :

Un de mes rêves c'est de mettre Sky Net au monde.

Édité par DUNplus le 20/01/2017 à 14:10
Avatar de Northernlights Abonné
Avatar de NorthernlightsNorthernlights- 20/01/17 à 14:11:21

Signaler ce commentaire aux modérateurs :

revker a écrit :

C'est quand même plus dangereux que la création d'une machine lambda. Il s'agit ici de munir une machine d'un libre arbitre.

Avant ca c'est simplifier les interfaces homme machine.

Avatar de ArchangeBlandin Abonné
Avatar de ArchangeBlandinArchangeBlandin- 20/01/17 à 14:17:06

Signaler ce commentaire aux modérateurs :

Ou, c'est plus des machines à deviner ce que cet idiot d'humain veut qu'autre chose pour la plupart. Pour ensuite te proposer ce que tu voulais vraiment. On peut appeler ça simplifier les ihm.

Le libre arbitre, c'est encore vague pour une IA.

Avatar de Lasout Abonné
Avatar de LasoutLasout- 20/01/17 à 14:22:39

Signaler ce commentaire aux modérateurs :

Comme ça a été dit avant moi on en est pas encore là (mais peu importe car ça viendra, effectivement).

Cependant, ça n'est pas plus dangereux que mettre au monde un être humain qui pourra potentiellement devenir un tyran coupable de génocide, cela étant une loi naturelle, le débat n'existe pas mais la problématique au fond est la même.

Avatar de maestro321 INpactien
Avatar de maestro321maestro321- 20/01/17 à 14:25:06

Signaler ce commentaire aux modérateurs :

revker a écrit :

C'est quand même plus dangereux que la création d'une machine lambda. Il s'agit ici de munir une machine d'un libre arbitre.

Libre arbitre? Et pourquoi pas une âme aussi?

Pour munir une machine de libre arbitre (ou d'une âme) il faudrait déjà arriver à le mettre en évidence chez l'homme..

Édité par maestro321 le 20/01/2017 à 14:26
Avatar de maestro321 INpactien
Avatar de maestro321maestro321- 20/01/17 à 14:25:52

Signaler ce commentaire aux modérateurs :

Matsod a écrit :

Cependant, ça n'est pas plus dangereux que mettre au monde un être humain qui pourra potentiellement devenir un tyran coupable de génocide, cela étant une loi naturelle, le débat n'existe pas mais la problématique au fond est la même.

Une machine n'a pas du tout les mêmes limites qu'un humain.. donc non ce n'est pas du tout comparable.

Édité par maestro321 le 20/01/2017 à 14:26
Avatar de lothoaheur Abonné
Avatar de lothoaheurlothoaheur- 20/01/17 à 14:27:42

Signaler ce commentaire aux modérateurs :

revker a écrit :

C'est quand même plus dangereux que la création d'une machine lambda. Il s'agit ici de munir une machine d'un libre arbitre.

Il n'est pas du tout question de donner un libre arbitre à une machine, c'est tout bonnement impossible à l'heure actuelle.
Quand on parle d'IA de nos jours c'est principalement du machine learning. Des algorithmes matricielles qui permettent, en gros, de trier des données à partir d'une base de données "d'entrainement". C'est utilisé un peu partout: de la reconnaisse d'images chez Google à l'analyse de données scientifiques (très utilisé par les expériences du LHC).
Et par exemple dans les pilotes auto de voiture, à partir des données de capteurs un algo peut "trier" la situation et en déduire la meilleure marche à suivre. On est encore très loin du concept de libre arbitre quand même.

Édité par lothoaheur le 20/01/2017 à 14:28
Avatar de maestro321 INpactien
Avatar de maestro321maestro321- 20/01/17 à 14:32:43

Signaler ce commentaire aux modérateurs :

Matsod a écrit :

cela étant une loi naturelle

Et non, désolé, mais le génocide n'a rien d'une "loi naturelle", c'est parfaitement artificiel (créé par l'homme).

Édité par maestro321 le 20/01/2017 à 14:34
Avatar de Lasout Abonné
Avatar de LasoutLasout- 20/01/17 à 14:36:48

Signaler ce commentaire aux modérateurs :

C'est pourtant bien une comparaison que tu fais en parlant des limites de l'un et de l'autre, mais là c'est de la sémantique.

Après, on peut débattre sur la notion de risque (il y a par exemple le potentiel de nuisance et la probabilité que ça arrive). De mon côté je pense que le potentiel de nuisance est le même (un humain pourrait tout a fait avoir le pouvoir d'anéantir l'espèce humaine) en revanche effectivement, une machine suffisamment intelligente et autonome pourrait certainement y arriver plus facilement si elle le souhaitait.

 Il y a cependant énormément de "si" dont certains relèvent de la philosophie et qui ne trouveront probablement jamais aucune réponse, encore moins si l'on essaie pas. Une IA, générique, reste une technologie beaucoup plus neutre que la bombe atomique par exemple. Refuser les IA ou vouloir les brider très tôt, c'est comme si la recherche liée à la nature de la matière avait été stoppée avant la découverte de l'atome, histoire d'être sûr de ne jamais mettre au point la bombe A; ça n'a pas de sens.

Considérant l'état de l'art tel qu'il est aujourd'hui, ça relève encore du débat assez creux, il faut encore avancer pour en discuter différemment; et je trouve ça bien que ça fasse d'ailleurs partie d'une certaine façon des missions de FranceIA.

Il n'est plus possible de commenter cette actualité.
Page 1 / 4