Intelligence artificielle : amie ou ennemie, « il faut envisager tous les scénarios »

Et si c'était un peu des deux ?
Tech 16 min
Intelligence artificielle : amie ou ennemie, « il faut envisager tous les scénarios »
Crédits : pixone/iStock

L'intelligence artificielle est un vaste sujet qui touche de nombreux domaines : les jeux, la reconnaissance d'images et de la voix, la publicité ciblée, etc. Elle n'en est pourtant qu'à ses débuts et l'avenir s'annonce riche en « nouveautés », notamment avec une possible intelligence artificielle forte. Est-ce un danger ou bien une aide pour l'humanité ? 

C'est fait : une machine a battu à plate couture (4 à 1) l'un des meilleurs joueurs de Go au monde, Lee Sedol. Comme nous l'avions déjà expliqué, il s'agit d'une intelligence artificielle qui porte le nom d'AlphaGo (créée par DeepMind, une filiale de Google) et qui utilise des réseaux de neurones avec de l'apprentissage profond. Cette victoire arrive plus tôt que ne le pensaient certains et soulève des questions sur les prochaines évolutions de l'intelligence artificielle.

Sera-t-on bientôt aux portes de films de science-fiction comme Ex MachinaI, Robot ou Terminator pour ne citer que ceux-là ? Pour reprendre une phrase de Laurent Alexandre, spécialiste de l'intelligence artificielle et chef d'entreprise, « on a dit tellement de conneries en matière d'intelligence artificielle et de robotique qu'il faut être prudent ». Nous avons donc décidé de faire le point sur le chemin parcouru depuis les années 80, en ayant les yeux tournés vers l'avenir d'ici 2050 et au-delà.

Une intelligence artificielle, c'est quoi ?

Avant toute chose, commençons par le rappel de quelques fondamentaux : qu'est-ce qu'une intelligence artificielle ? D'après le Larousse, il s'agit d'un « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine ». 

Yann Ollivier, chercheur au CNRS spécialisé dans l'intelligence artificielle, expliquait lors d'une émission Bibliothèque Médicis présentée par Jean-Pierre Elkabbach, qu'une intelligence artificielle doit « comprendre des situations humaines et réagir aussi intelligemment ou bêtement que le ferait un humain... parce qu'un humain ce n'est pas toujours très intelligent ».

Des réseaux de neurones...

Pour arriver à mettre artificiellement de l'intelligence dans un programme, il existe plusieurs méthodes, mais la plus couramment utilisée consiste à exploiter des réseaux de neurones. Le chercheur en donne la définition suivante : « Les réseaux de neurones artificiels ont pour objet de reproduire le genre de capacités que l'on observe chez l'humain. On essaye d'avoir le même principe, sans forcément mimer la biologie ».

Leur but est de mémoriser des informations (en très, très grandes quantités) afin de classifier des éléments. Par exemple, on peut montrer des milliers (voire des millions) d'images de chaises à un programme informatique afin qu'il « apprenne » ce que c'est. Ensuite, il devrait être capable d'en reconnaitre une sur une photo ou une vidéo, du moins avec une marge d'erreur acceptable. Une opération que l'on peut reproduire pour tous les objets de la vie courante, mais aussi pour les mots et tout ce que l'on peut finalement quantifier.

... à l'apprentissage profond

Lors d'une conférence à l'USI (voir vidéo ci-dessous), le français Yann LeCun, patron de l'intelligence artificielle chez Facebook, expliquait que « pour de la reconnaissance d'images ou de la parole, on a quelques centaines de millions de boutons à ajuster [NDLR : soit autant de paramètres], ce sont vraiment des systèmes de grandes tailles. On a quelques millions ou quelques milliards mêmes d'exemples pour s'entrainer, des milliers de catégories et reconnaitre chaque objet prend quelques milliards d'opérations ».

Smartphone à la main, il propose une petite démonstration avec un programme maison qui tourne sur un portable taillé pour du jeu afin de disposer d'un gros GPU. La vidéo tourne à environ 5 ips et chaque reconnaissance demande 5 milliards d'opérations.

Pour en savoir plus sur les méthodes algorithmiques utilisées par l'apprentissage profond, on ne peut que conseiller de regarder cette vidéo d'environ 45 minutes. Pas d'inquiétude, malgré la présence de quelques formules mathématiques qui ne sont pas forcément compréhensibles par tout le monde, la grande majorité de la conférence est accessible : 

Des méthodes déjà utilisées dans les années 80/90

Ces techniques ne sont par contre pas nouvelles et elles étaient déjà utilisées dans les années 90. Le problème était alors la limite de la puissance des ordinateurs, ainsi que la quantité de données disponibles pour l'apprentissage. Cela n'a pas empêché Yann LeCun de mettre sur pied un programme capable d'identifier des chiffres dès le début des années 90, en utilisant par contre une puce dédiée aux traitements du signal (20 millions d'opérations par seconde à l'époque).

Un avis partagé par Laurence Devilliers, spécialiste des émotions dans l'intelligence artificielle, également présente dans l'émission Bibliothèque Médicis : « J'ai l'impression que l'on n'a pas fait tant de progrès que cela. On combine plusieurs algorithmes de type apprentissage profond, ou des techniques qui sont très à la mode en ce moment, avec des techniques qu'on utilisait déjà dans les années 80 qui sont du renforcement d'apprentissage ».

Ce qui a par contre changé depuis les années 80, c'est la quantité de données accessibles aux géants du Net pour entrainer et développer une intelligence artificielle.

Les GAFA profitent de vos données pour éduquer leur IA

Pour mener à bien ce genre d'opérations, il faut en effet disposer d'une quantité astronomique de données (qui se chiffre en millions ou en milliards), ce qui est le cas des GAFA (Google, Apple, Facebook, Amazon et Microsoft entre autres) qui peuvent profiter des images, des messages et des autres contenus déposés chaque jour par centaines de millions d'utilisateurs. « Toutes les informations que nous mettons sur Facebook, sur Google, toutes ces données-là sont très utiles pour éduquer l'intelligence artificielle » explique Laurent Alexandre.

À titre d'exemple, Yann LeCun (responsable de l'intelligence artificielle chez Facebook, pour rappel) annonçait en juillet 2015 que les utilisateurs du réseau social de Mark Zuckerberg téléchargeaient 600 millions d'images par jour sur Facebook. Si on ajoute les autres applications comme WhatsApp et Instagram, on arrive à un chiffre décoiffant de 2 milliards.

« En moins de deux secondes, chacune des 600 millions de photos est envoyée à deux réseaux cognitifs, un qui fait l'identification des objets dans l'image pour faire le tri et l'association en fonction de l'intérêt des gens, et un autre qui fait la reconnaissance des visages », sauf en Europe depuis maintenant plus de trois ans.

Ce n'est pas forcément une surprise, mais l'une des applications de l'intelligence artificielle est de proposer de la publicité ciblée en fonction des centres d'intérêt des utilisateurs, le nerf de la guerre pour bon nombre de géants du Net. Ces derniers se préparent d'ailleurs à une évolution importante : personnaliser notre expérience (au sens large du terme) en fonction de nos émotions et de celle des gens qui nous entourent. Bref, l'intelligence artificielle est déjà partout et le moindre contenu que l'on dépose est consciencieusement analysé, décortiqué et catalogué.

Dans les méandres du Big Data et de la gestion des données personnelles, Google tente de jouer la carte de l'ouverture, du moins en apparence. Si une partie des algorithmes utilisée par DeepMind est librement accessible, ce n'est pas le cas des données utilisées pour entrainer les réseaux de neurones. Or, les données sont le nerf de la guerre car sans elles, point d'intelligence artificielle.

Contrôle parental, voiture, médecine : l'intelligence artificielle est déjà omniprésente

L'intelligence artificielle et l'apprentissage profond sont donc déjà largement utilisés dans notre vie quotidienne et pas uniquement pour la publicité ou la reconnaissance d'images. Les filtres pour le contrôle parental peuvent ainsi l'exploiter pour estimer si une page propose des contenus pornographiques ou potentiellement choquants. Dans tous les cas, il « suffit » de disposer de suffisamment de données pour construire un modèle dont les résultats sont fiables... dans une certaine mesure.

On peut également citer les voitures intelligentes capables de détecter un piéton ou un danger, ainsi que les véhicules autonomes comme la Google Car. Cette dernière a déjà réalisé des millions de kilomètres, mais elle vient seulement d'avoir son premier accident, où Google reconnait d'ailleurs avoir une responsabilité. Ironie de l'histoire, c'est en voulant « faire comme les conducteurs humains » que l'accrochage a eu lieu. 

Lors d'un changement de file, la voiture autonome pensait en effet que le bus allait la laisser passer, tandis que le bus pensait que la voiture n'allait pas s'engager sur la voie... « c'est ce type de malentendu qui se passe tous les jours entre les conducteurs humains ». Bref, un comportement aussi intelligent ou bête qu'un humain, on est donc bien en face d'une intelligence artificielle selon la définition de Yann Ollivier.

On peut également imaginer que les autoroutes en viennent à se transformer comme dans Minority Report, avec une intelligence artificielle centrale qui s'occupe de la répartition des véhicules. Les hommes n'ont plus rien à faire, si ce n'est profiter du paysage. 

Même chose pour la manutention où l'on peut imaginer qu'un robot comme Atlas de Boston Dynamics soit doté d'une intelligence artificielle afin de réaliser certaines tâches en autonomie.

Bien évidemment, c'est dans les domaines où les informations sont très nombreuses que l'intelligence artificielle montre pour le moment tout son potentiel. Par exemple, l'analyse des données des malades du cancer (20 000 milliards d'informations par patient), ne pourrait pas être réalisée individuellement par un médecin, pour chaque personne. Néanmoins, Laurent Alexandre ajoute que les machines sont « encore très loin d'atteindre les médecins dans la synthèse ». Cela pourrait éventuellement être le cas un jour, mais probablement pas avant 2030 ou 2040.

Quand l'intelligence artificielle fait des opérations mathématiques sur... du texte

Des évolutions sont bien évidemment en marche, notamment sur la reconnaissance de langage naturel, avec un chamboulement qui pourrait bien se préparer : « l'identification de mots ou de texte par des vecteurs fixes sur lesquels on peut faire des opérations » explique Yann LeCun. Par exemple, on associe Beijing à la Chine, Paris à la France et du coup on peut réaliser l'opération suivante : « Beijing - Chine + France = Paris », logique non ? Cette méthode pourrait être utilisée pour relier des questions et des réponses entre elles afin de « faire des systèmes qui répondent à n'importe quelle question ».

La traduction de phrases d'une langue à une autre en profite également : « on prend un texte en anglais, on le passe dans un réseau récurent, qui extrait un long vecteur qui représente le sens de la phrase, et ensuite un autre réseau récurrent régurgite la phrase dans une autre langue, par exemple le français ». Cette solution a des performances un peu plus élevées que les systèmes actuels, mais n'est pas encore largement utilisée, car elle demande plus de puissance de calcul et revient donc plus chère. Néanmoins, pour Yann LeCun, « il est probable que d'ici peu les systèmes de traduction automatique soient basés sur des réseaux de neurones ».

Quoi qu'il en soit, toutes les intelligences artificielles qui existent aujourd'hui (sans exception) sont dites supervisées, c'est-à-dire qu'il faut leur donner des informations pour qu'elles apprennent. Il n'est pas encore question d'une intelligence artificielle qui puisse apprendre par elle-même, simplement en observant le monde, comme le ferait un enfant par exemple.

Si malgré cela l'intelligence artificielle peut être très forte et dépasser l'humain sur certaines tâches, il en reste encore de nombreuses où elle n'arrive même pas à la cheville d'un jeune enfant. Microsoft abonde d'ailleurs dans ce sens avec son projet AIX.

IA Intelligence artificielle
Crédits : Devrimb/iStock

Les limites actuelles de la machine

Olivier Teytaud, toujours lors de l'émission Bibliothèque Médicis, explique ainsi que « la machine est très douée sur les questions très difficiles. Vous lui posez une question de relativité générale, elle va chercher sur Internet, elle trouve une réponse très profonde sur le temps, l'espace, la matière ». Elle sera probablement complètement perdue sur des sujets pourtant triviaux pour quasiment n'importe qui. Un exemple tout bête : demander à une intelligence artificielle si « les hippopotames jouent au ping-pong ? »

D'autres domaines sont également hors de portée de l'intelligence artificielle pour le moment : résumer un livre, produire une synthèse de documents, avoir des sentiments (et pas uniquement de l'empathie), rêver, avoir des réflexions philosophiques, etc. Impossible également de demander à une intelligence artificielle d'inventer quelque chose de « joli » ou d'harmonieux par exemple. Il s'agit de concept difficile à appréhender.

Yann LeCun partage cette vision : « il y a pour le moment certaines choses que l'on ne sait pas faire, qui sont vraiment essentielles, pour pouvoir construire des machines plus intelligentes. Il y a un mode d'apprentissage en particulier qui est non supervisé », c'est-à-dire sans que l'on soit obligé de donner le nom de chaque objet des millions de fois à la machine. En effet, « on apprend la nature et la structure du monde de manière spontanée, simplement en vivant dans le monde », contrairement aux machines. Problème, on ne sait même pas comment implémenter cela dans une machine. 

Une intelligence artificielle forte verra-t-elle le jour ?

Une intelligence artificielle avec un apprentissage non supervisé n'est pour autant pas à exclure définitivement, et cela pourrait arriver un jour. Pour autant, il faudra probablement attendre plusieurs décennies, et pas avant 2050 selon plusieurs spécialistes. Il serait alors question d'une intelligence artificielle forte, capable de penser, d'avoir conscience d'elle-même, d'avoir des projets, etc. Nombreux scientifiques s'accordent à dire que ce sera possible un jour, mais pas de suite. Pour d'autres, c'est une chimère.

Selon Laurence Devilliers, « sans corps et sans vivant à l'intérieur d'un robot on ne pourra pas faire ça ». Une phrase que l'on peut mettre en parallèle d'une déclaration d'Elon Musk (patron de Tesla et SpaceX) : « J'espère que nous ne sommes pas uniquement un boot loader pour une superintelligence artificielle. Malheureusement, cela est de plus en plus probable ».

Si l'intelligence artificielle progresse et, même si on arrive à une IA forte, il n'est pour le moment pas possible de savoir où cela s'arrêtera. Arrivera-t-on à créer une machine qui soit plus intelligente que l'humain sur tous les domaines ? La question reste ouverte pour le moment, et probablement encore pour de longues années.

Il faut que le monde et les politiques décident d'une orientation

Quel que soit l'avenir, avec une intelligence artificielle forte ou non, les différents scientifiques et spécialistes présents à Bibliothèque Médicis veulent qu'un grand débat s'ouvre rapidement sur l'IA, au niveau mondial. Les enjeux sont importants et cela aura des conséquences pour tout le monde ; certains parlent d'ailleurs d'un « changement de civilisation ».

Si les voitures autonomes débarquent en masse (ou plutôt quand elles arriveront en masse), que se passera-t-il pour les milliers, voire les millions de chauffeurs ? Organiser une reconversion générale ne sera pas facile. Mais il ne s'agit que d'un exemple et d'autres secteurs seront également impactés à plus ou moins longue échéance. Certains sont d'ores et déjà identifiés, d'autres non.

Le risque est donc d'avoir d'un côté des personnes hautement qualifiées qui peuvent accéder à des emplois dans la robotique et de l'autre le reste de l'humanité. D'autant plus qu'on peut imaginer que les robots se construisent eux-mêmes un jour, réduisant de plus en plus le besoin pour l'homme d'intervenir dans le processus.

Pour d'autres, l'avenir s'annonce sous de meilleurs hospices puisque les robots effectueront toutes les tâches ingrates à notre place, des scénarios déjà mis en avant dans de nombreux films de science-fiction. Mais là encore qui fournira les robots ? Seulement deux ou trois sociétés au monde qui se partageront le pactole ? Impossible à dire pour le moment. 

Gille Babinet, « digital champion » de la France à la commission européenne, abonde dans ce sens et dresse un portrait assez sombre en cas d'immobilisme de la société : « Il faudrait ainsi souhaiter qu’émerge un débat sur le rôle que nous souhaitons confier aux machines : soit permettre de libérer l’homme du taylorisme et l’aider à conjurer définitivement les cauchemars malthusiens (il nous faut nourrir 11 milliards d’individus dès 2050) et sur un tout autre plan, explorer de nouveaux horizons de conscience, soit la victoire de la vision – glaçante – des transhumanistes et la soumission de l'humanité aux robots. Choix qui pourrait s'imposer si nous laissions place à l'émergence d'une innovation sans débat ».

Cynique et provocateur comme à son habitude, Laurent Alexandre évoque pour sa part un sujet sensible qui fait débat aux États-Unis : « faut-il autoriser la pédophilie robotique ou faut-il l'interdire ? ». Même si les robots sexuels avec de l'intelligence artificielle ne sont pas encore là, la question commence déjà à remonter à la surface...

Quelle que soit la manière d'aborder la question, il apparait comme important de se saisir de ce sujet dès maintenant, au plus haut niveau, afin de définir des lignes directrices. Mais cela ne sera pas facile de faire bouger la classe politique sur ce genre de questions, qui en dépassent bien souvent certains.

Il faudrait également que l'école avance davantage sur la robotique et l'intelligence artificielle car cette dernière sera encore plus présente pour nos enfants qu'elle ne l'est pour nous. Si l'algorithmique commence à faire son nid, la mise en pratique n'est pas simple dans de nombreuses écoles par faute de moyens et/ou de formations spécialisées des enseignants.

Skynet est-il à nos portes ? Et dans quelques dizaines d'années ?

Maintenant que l'on a pu voir comment les robots et l'intelligence artificielle pouvaient nous aider et quelles sont les dispositions que l'on doit prendre, il est temps d'envisager une autre possibilité : quid de l'intelligence artificielle dans des robots tueurs ? C'est déjà plus ou moins une réalité avec des drones capables de trier les civils des assaillants hostiles afin de lancer une frappe aérienne... mais toujours avec une marge d'erreur malheureusement. 

Les robots militaires sont également de plus en plus performants et, malgré une lettre ouverte demandant l'arrêt de fabrication de ce genre d'armes, les choses devraient continuer de plus belle dans les années qui viennent. La question que se posent certains est de savoir si un robot ou un drone peut décider, subitement, de nous attaquer pour on ne sait quelle raison. Pour Yann Ollivier et d'autres scientifiques, la réponse est non : « si l'intelligence artificielle devient hostile avec les capacités qu'on a aujourd'hui, c'est parce que quelqu'un aura fabriqué une intelligence artificielle hostile, volontairement ».

Intelligence Artificielle robot bb-8
Crédits : jpgfactory/iStock

L'expérience Tay de Microsoft peut prêter à sourire, mais elle montre à quel point il est difficile d'anticiper le comportement d'une intelligence artificielle. Pour rappel, celle-ci n'est restée en ligne que quelques heures avant d'être retirée pour aliénation mentale. Elle est désormais de retour, sous surveillance.

Mais que se passera-t-il avec une intelligence artificielle forte, capable d'avoir des envies et des rêves ? Si on lui propose, par exemple, de simplement « faire ce que tu veux » ? À quoi faut-il s'attendre ? Le robot va-t-il prendre du bon temps ? Aider son prochain ? Essayer de devenir le maitre du monde ? Impossible à dire pour le moment et il parait difficile d'envisager toutes les possibilités.

À défaut de connaitre la réponse, « il faut envisager tous les scénarios »

Pour Laurent Alexandre, «  personne au monde ne peut dire si l'intelligence artificielle peut dépasser l'intelligence humaine et devenir hostile, c'est un débat entre spécialistes »... du moins pour le moment. Prudent, il ajoute tout de même que, en attendant, « il faut envisager tous les scénarios ». Ce à quoi les autres scientifiques acquiescent.

Pour le moment, deux tendances se dégagent. D'un côté on a des scientifiques qui pensent que les robots pourraient être une grave menace pour l'humanité (Stephen Hawking, Elon Musk et Bill Gates pour ne citer qu'eux). Le patron de Tesla et SpaceX va même plus loin : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme si il pouvait contrôler le démon ? Ça ne fonctionne jamais ». D'autres par contre estiment au contraire qu'il s'agira d'une aide précieuse.

De son côté, Gilles Babinet aurait plutôt tendance à rejoindre le premier groupe : « avec l’émergence de l’intelligence artificielle, le risque serait que ce ne soient plus nos auxiliaires, mais bien que ce soit nous qui en soyons devenus les auxiliaires ». Dans tous les cas, impossible de trancher cette question pour le moment. Il faut attendre et essayer de se préparer au mieux, à tous les niveaux.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !