#FranceIA : les enjeux de l'intelligence artificielle, entre fantasmes et craintes

Entre aliénation et humains augmentés 9
image dediée
Nouvelle Techno
Par
le lundi 27 mars 2017 à 15:46
Sébastien Gavois

Derrière la notion d'intelligence artificielle se cachent de nombreux fantasmes et craintes. France Stratégie et le CNNum ont mis en ligne un rapport qui se penche sur les impacts économiques et sociaux. Il se compose d'une analyse de la situation et de sept recommandations.

Il y a un peu plus de deux mois, le gouvernement organisait une conférence de presse afin de lancer officiellement le projet « France IA ». Son but était alors de définir « les orientations stratégiques de la France dans le domaine de l’intelligence artificielle ».

Sept groupes de travail étaient présentés, chacun centré sur un sujet précis. Le calendrier était serré puisque le premier rapport devait être dévoilé mi-mars. Il est désormais en ligne et nous l'avons analysé.

Mises en bouche et en garde

Dans un premier temps, il commence par définir quelques notions et faire un point d'étape de l'intelligence artificielle (IA). Celle-ci « s'inscrit dans la continuité des transformations numériques à l’œuvre depuis des années », mais « les transformations à venir sont profondes, les incertitudes aussi » et « tout n’est pas rose ».

Pour le moment, « nous sommes loin d’une IA "générale" » ou IA forte note le rapport. Ce n'est pas une surprise puisque nous avons déjà eu l'occasion de l'évoquer à plusieurs reprises. Si « les logiciels actuels ne sont capables de réaliser que des tâches très spécifiques », que se passera-t-il lorsqu'une telle intelligence sera disponible ? Impossible à dire pour l'instant, et ce n'est pas l'objet de ce rapport qui se concentrer davantage sur les enjeux sociaux dans un avenir proche.

Le premier point abordé concerne la délicate question des emplois. Il faut dire que l'intelligence artificielle se déploie sur un nombre toujours plus important de domaines, avec une pertinence et une efficacité parfois redoutable, comme peuvent en attester les quelques victoires récentes sur l'Homme, notamment au jeu de Go et au poker. Sont donnés en exemple les cas suivants : reconnaissance d’images, filtre anti-spam, système de recommandation de contenus, traduction automatique dans de nombreuses langues, intelligence des personnages dans les jeux vidéo, conduite autonome, gestion du trafic, etc. 

De la destruction d'emplois...

Les risques sur le plan social sont réels et plus ou moins importants suivant les domaines : « l’absence d’anticipation, la pauvreté des solutions d’accompagnement, des approches en silo et un pilotage assis sur la seule réduction des coûts auraient les effets dramatiques de destruction d’emploi que nous annoncent les cassandres » explique le rapport.

S'il est inévitable que certains emplois seront remplacés par des ordinateurs, d'autres resteront par contre le propre de l'homme, car une IA sera considérée « inacceptable, inefficace ou non bénéfique pour la société ». Le rapport cite l'Allemagne en exemple : « très robotisée, mais avec plus de salariés dans l’industrie que la France », afin de mettre en avant le fait que les destructions d'emplois « peuvent être plus que compensées par l’amélioration de la compétitivité de certains secteurs, qui augmente leur potentiel à l’exportation ».

Mais attention, « ce scénario rose doit bien entendu être nuancé » tempère rapidement le rapport. Tout d'abord, les emplois automatisables seraient en nombre limité : une dizaine de pourcents selon plusieurs rapports cités. Par contre, près de la moitié des tâches sont « susceptibles d’être transformées » par l'IA et la robotisation ; ce qui inquiète bien souvent. Reste maintenant à savoir à quel point on parle de transformation.

Bien évidemment, plus l'IA prendra une place importante, plus il faudra des techniciens (au sens très large du terme) pour les concevoir, entrainer, superviser et réparer, du moins tant que cette tâche ne sera pas non plus remplacée par un robot ou une IA forte. Ce qui n'arrivera probablement pas avant « plusieurs décennies », mais c'est un autre problème.

... aux travailleurs « augmentés »

La situation doit donc être appréhendée de manière globale et pas uniquement secteur par secteur. France Stratégie et le CNNum se concentrent ainsi sur la « nécessaire transformation des métiers, notamment la complémentarité homme-machine ». 

Cette coopération se mettrait en place « dans des environnements de travail où les IA seront des partenaires, des assistants plutôt que des remplaçants ». Il est ainsi question d'« "augmenter" les travailleurs », pas au sens du salaire, mais des performances.

Cela soulève une nouvelle question : « le risque de transformer le travailleur en un simple exécutant déqualifié, suivant les prescriptions de la machine ». Un futur déjà exploré par de nombreux films de science-fiction.

Le rapport propose un exemple pratique mettant en parallèle deux scénarios dans un centre d'appel. Dans le premier cas, le travailleur est « augmenté », dans le second l'humain est subordonné à l'IA. Finalement, il ne manque que le cas où le travailleur est purement est simplement remplacé par l'IA... ce qui arriverait très rapidement avec le second scénario :

France Stratégie IA

Éviter l'aliénation de l'humain, l'importance de la formation

Afin d'éviter « l’aliénation et la prolétarisation » de l'humain, le rapport explique qu'il ne faut pas « mettre en place de dispositif automatique exerçant un contrôle complet sur l’humain : l’humain doit garder la capacité de reprendre la main ». Là encore, la voiture autonome est un domaine précurseur des enjeux.

Pour France IA il faut « organiser une gouvernance en vue d’anticiper ces transformations », c'est d'ailleurs la première des sept recommandations du rapport. Il faut également mettre en place une plateforme numérique, et « sous forme de concertation nationale », afin de regrouper toutes les parties liées à l’emploi : Pôle emploi, AFPA, acteurs régionaux, nationaux, européens, syndicats, etc.

La formation qui « joue un rôle incontournable » doit être mise en avant. De son côté, la formation continue, qui « fait régulièrement l’objet de nombre de critiques concernant ses modes de fonctionnement et son efficacité », doit gagner en importance pour que les travailleurs ne se laissent pas distancer par les évolutions de l'IA.

Au final, « le lien entre le fait d’avoir suivi une formation initiale et celui d’exercer le métier correspondant toute sa vie est clairement à remettre en cause ». Problème, le temps de formation continue n'est pour le moment pas à la hauteur.

Des algorithmes capables de gagner en compétence

Si la formation permet de préparer les métiers du futur, l'IA apprend également et développe ses réseaux de neurones. Ses capacités sont ainsi en perpétuelle amélioration et tendent à « s’horizontaliser », c'est-à-dire à conquérir de manière quasi automatique des compétences sur des domaines proches.

Le rapport donne un exemple concret, déjà en place chez Google : « DQN, un algorithme développé par DeepMind parvient à comprendre par lui-même les règles de différents jeux auxquels il n’a jamais été entraîné à partir de son entraînement sur un jeu spécifique ».

Quid du cadre juridique ?

Alors que les questions du revenu universel, de la personnalité juridique des robots et d’une éventuelle taxe sont entrées dans le débat politique pour la présidentielle, ce rapport ne souhaite pas se positionner « sur leur pertinence » et se contente de poser un diagnostic.

En se basant sur les conclusions d'un sous-groupe de travail, le rapport indique qu'à « ce stade de l’évolution de l’IA, il n’existe pas de nécessité impérieuse de repenser le dispositif législatif et règlementaire en vigueur ». Notons qu'il faudra néanmoins se pencher rapidement sur certaines problématiques, dont celle de la responsabilité en cas d'accident d'une voiture entièrement autonome.

Actuellement, selon le code la route, « tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur ». De plus, celui-ci « doit se tenir constamment en état et en position d'exécuter commodément et sans délai toutes les manœuvres qui lui incombent ». Il faudra s'adapter et prévoir les véhicules où il n'y aura plus de volant devant le conducteur. 

La Belgique et les Etats-Unis ont déjà mis en place de nouvelles règles afin d'ouvrir la voie à des expérimentations, alors qu'en France on attend toujours un décret d'application

Le retard de la France et de l'Europe

De manière générale, la situation, telle que présentée dans le rapport, n'est d'ailleurs pas glorieuse pour le vieux continent : « l’IA est largement développée et commercialisée par les grandes plateformes du numérique (américaines et asiatiques), ce qui repose la question du retard français et européen dans le numérique ».  

Un point sur lequel s'était déjà épanché Thierry Mandon, le secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Pour lui, la recherche en France « est en grand danger » aujourd'hui, car les centres français « sont pillés » : « leurs chercheurs sont débauchés par des sociétés qui ne sont pas françaises et qui ont le bon goût de ne pas payer d'impôt en France ».

Une situation regrettable pour la France, d'autant que l'intégration de l'IA « au sein de nos économies est vectrice de gains de productivité importants » affirme le rapport. Les sociétés ne peuvent donc pas passer à côté au risque d'une perte de compétitivité majeure, comme cela a déjà été le cas par le passé :

La France risque de se trouver confrontée à un conflit de transition, avec de grandes entreprises qui n’ont pas les moyens (stratégiques, logistiques, organisationnels) d’intégrer efficacement les innovations et qui utilisent des verrous institutionnels pour ralentir le développement de nouvelles entreprises plus innovantes.

In fine, ce sont les entreprises qui ont pu se développer dans un cadre propice qui, en entrant sur le marché français, apportent les innovations et la disruption. La transition peut alors être assez brutale avec une conquête massive de la part des clients grâce à des démarches dématérialisées peu contraignantes, comme ce fut le cas avec Uber.

Afin d'éviter que cela ne se reproduise trop souvent, le rapport veut « inciter les entreprises, grandes ou petites, à développer et intégrer des briques d’intelligence artificielle ». Dans la pratique, peu de pistes sont évoquées, si ce n'est la mise en place d'un réseau thématique afin de fédérer les différents acteurs. Le but étant de faciliter l'accès à l'expérimentation et aux données, qui sont le fondement même de l'intelligence artificielle.

La guerre de la compétitivité

Comme nous l'avons déjà expliqué à plusieurs reprises, de nombreuses sociétés proposent leurs algorithmes liés à l'IA (apprentissage machine et apprentissage profond par exemple) en open source. C'est le cas de géants du Net comme Apple, Facebook, Google, IBM et Microsoft, pour ne citer qu'eux. De fait, tout le monde peut en profiter... et surtout les améliorer.

Néanmoins, seuls certains acteurs (américains ou asiatiques) avec une capacité de calcul suffisante sont en mesure de proposer aux entreprises des services d'IA. Cette dépendance « à des solutions d’intelligence artificielle développées à l’étranger peut également conduire à une perte de souveraineté ». 

De plus, « ces entreprises ont donc la capacité de se placer au cœur d’une activité et en interface entre une entreprise et ses clients. Elles peuvent ainsi reproduire le modèle des plateformes numériques comme Booking, Airbnb ou Uber » note le rapport.

Dans le cas des voitures autonomes, le risque est quasi immédiat et ne doit pas être pris à la légère. Les constructeurs qui misent sur le design et les performances du moteur seront-ils en mesure de développer leur propre IA, ou bien seront-ils dépendants de sociétés tierces ?

Dans ce cas, le client sera-t-il plus enclin à acheter un véhicule de telle ou telle marque avec un logiciel de navigation en marque blanche, ou bien se rendra-t-il directement chez le concepteur original ? Les véhicules autonomes étant déjà une réalité, la réponse devrait arriver rapidement.

Quoi qu'il en soit, l'ensemble du secteur est en évolution et les annonces partenariat autour des systèmes autonomes se multiplient ces derniers mois, chacun essayant de développer sa solution maison pour ne pas se laisser distancer.

Le choc des données

Afin d'entrainer une intelligence artificielle, il faut disposer d'une quantité astronomique de données. À titre d'exemple, Yann LeCun, patron de l'intelligence artificielle chez Facebook, expliquait que « pour de la reconnaissance d'images ou de la parole, on a quelques centaines de millions de boutons à ajuster, ce sont vraiment des systèmes de grandes tailles. On a quelques millions ou quelques milliards mêmes d'exemples pour s'entrainer, des milliers de catégories et reconnaitre chaque objet prend quelques milliards d'opérations ».

De par les marchés où ils sont implantés, les acteurs américains et asiatiques touchent un nombre bien plus important de personnes et donc captent d'autant plus de données qu'ils gardent évidemment bien précieusement. « Les géants du numérique ont alors tout intérêt à ouvrir les algorithmes de machine learning, pour capitaliser sur les logiques de l’innovation ouverte, tout en gardant la main sur les actifs qui en constituent la clé » note à juste titre le rapport. 

Au-delà des données en elles-mêmes, le rapport revient rapidement sur les questions d’éthique et d’acceptabilité qui en découlent : « il y a une responsabilité du concepteur de l’algorithme, mais également un impact des données utilisées pour réaliser l’apprentissage ».

Des jeux de données différents peuvent conduire à des apprentissages différents de l'IA, qui peut être influencée d'une manière ou d'une autre. Après la neutralité du Net, va-t-il être question de la neutralité d'un jeu de données ? Dans tous les cas, augmenter l'échantillon permet de limiter ce phénomène. On en revient donc à la question de la quantité, qui peut cette fois-ci rimer avec qualité finale.

Jouer la carte de l'ouverture des données en Europe

En France et en Europe, on n'a peut-être pas de réseaux sociaux avec des milliards de membres, mais on a des idées : exploiter « les bases médico-administratives de santé sont alimentées chaque année par 1,2 milliard de feuilles de soin, 500 millions d’actes médicaux et 11 millions d’hospitalisations », ainsi que « d’autres données, comme les données juridiques, pourraient gagner à être ouvertes de manière plus large ».

Encore faut-il voir dans quelle mesure et sous quelle forme elles pourraient être disponibles, celles-ci comportant souvent des informations personnelles, elles devront être anonymisées, mais resteront-elles alors pertinentes ? Ce n'est pas le seul robinet que souhaite ouvrir France IA, qui veut également « engager une réflexion sur les modes de partage de la valeur entre acteurs privés ».

Pour lutter contre les géants américains et asiatiques, les acteurs européens auraient donc intérêt à se regrouper et à mutualiser leurs données. Reste à voir si cela pourrait être mis en place dans la pratique, ces informations étant justement si précieuses.

Sept recommandations sur l'intelligence artificielle

Quoi qu'il en soit, sept recommandations sont mises en avant par le rapport (toutes en rapport avec les problématiques que nous venons de souligner) :

  • Organiser une concertation pour anticiper les impacts économiques et sociaux de l’IA
  • Transformer la formation tout au long de la vie
  • Penser la complémentarité humain-machine
  • Sensibiliser à la valeur des données pour entraîner l’IA
  • Intégrer l’IA dans les entreprises
  • Donner accès aux données publiques
  • Faire circuler les données

chargement
Chargement des commentaires...