Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté

Tout ça pour finir dans la matrice 34
Accès libre
image dediée
Crédits : Devrimb/iStock
Science
Sébastien Gavois

Après avoir regardé dans le rétroviseur des 20 dernières années de la science (au sens large), tournons les yeux vers l'avenir. Les promesses sont nombreuses : développement de l'intelligence artificielle, informatique quantique, santé 2.0, humain augmenté, révolution du stockage...

Dans la première partie de notre dossier sur 20 ans de découvertes scientifiques, nous étions revenus sur le séquençage du génome humain, la découverte du graphène, la blockchain, le bitcoin, les ondes gravitationnelles, le boson de Higgs, la conquête et la compréhension de l'univers, le transport du futur, etc. 

Notre dossier sur les découvertes scientifiques, les promesses pour l'avenir :

L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)

Si nous n’avons pas cité l'intelligence artificielle dans les révolutions scientifiques des 20 dernières années, c’est tout simplement car elle est bien plus ancienne. On retrouve des traces de machines « pensantes » dans la science-fiction dès les années 1920.

En 1950, c’était au tour des scientifiques de s’intéresser au sujet, sous l’impulsion du célèbre mathématicien Alan Turing et de son article « L’ordinateur et l’intelligence ». Il expose également un test pour savoir si une machine s’approche d’une intelligence humaine : « le jeu de l'imitation », plus connu sous le nom de test de Turing.

Publication Turing 1950
Crédits : manhattan rare books

Les travaux de recherches sont nombreux et, en 1956 (en même temps que le premier disque dur), le premier logiciel d’intelligence artificielle est créé par Allen Newell et Herbert Simon : Logic Theorist. « Il réalise tout seul des démonstrations de théorèmes mathématiques », explique le CEA. Un an plus tard, en 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un réseau de neurones : le Perceptron. Bref, l’intelligence artificielle existait déjà dans les années 50.

Ce n'est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques : le premier chatbot était né. Toujours en 1965, les premières questions autour de l’éthique et critiques sont soulevées par Hubert Dreyfus. Il met notamment en avant les émotions, absentes des algorithmes.

Après des « hivers », l'âge d’or de l’intelligence artificielle

L’histoire de l’intelligence artificielle est ensuite jalonnée de haut et de bas. Le premier « hiver de l’IA » est arrivé à la fin des années 1960. Passé la « hype » du moment, la désillusion a pris place face aux piètres performances des machines de l’époque. La science-fiction en fait par contre ses choux gras avec des films comme 2001 l’Odysée de l’Espace (1968), Star Wars (1977, avec les droïdes D2R2 et C-3PO) et Wargames (1983) pour ne citer que ces trois-là.

Il faudra attendre les années 80 pour que les investissements sur ce sujet reprennent, avec le développement des « systèmes experts » capables de remplacer l’homme dans des domaines bien précis. Une période de courte durée puisque l’ordinateur personnel concentrait les attentions et les investissements dès la fin des années 80.

L’intelligence artificielle revient dans les années 90, poussée par la puissance des ordinateurs. Ce duo va d’ailleurs faire des merveilles et continue aujourd’hui : l’augmentation exponentielle de la puissance de calcul et des capacités de stockage permettent d’améliorer toujours plus les IA.

Elle a d'ailleurs quelques faits d’armes : en 1997, l’application de reconnaissance vocale NaturallySpeaking 1.0 de Dragon System débarque sur Windows. La même année, Deep(er) Blue bat le champion d’échec Garry Kasparov. La première partie a fait couler beaucoup d’encre car l’intelligence artificielle a joué un coup très surprenant en sacrifiant un pion.

Mais, ce qui avait été pris pour « un signe d'intelligence supérieure » pourrait n’être qu’un bug car la machine n’arrivait pas à se décider entre plusieurs possibilités…. 20 ans plus tard, AlphaGo dépasse les humains au jeu de Go. L’intelligence artificielle n’en restera évidemment pas là.  Elle s’attaque désormais aux compétitions de jeux vidéo.

Grâce aux réseaux de neurones, à la puissance de calcul et aux bases de données qui explosent, les IA ne peuvent en effet que s’améliorer. Les prochaines années promettent d’être passionnantes sur ce point. Il reste néanmoins beaucoup de travail pour arriver à une intelligence artificielle « réellement intelligente ». Ceux qui ont testé Google Assistant, Amazon Alexa ou Siri d’Apple voient bien de quoi il est question.

Un exemple parmi tant d’autres : demandez à un assistant numérique « Un hippopotame sait-il jouer de la flûte ? ». Vous aurez droit à des recherches sur les hippopotames, des actualités surprenantes avec un rapport plus ou moins éloigné au sujet (surtout plus que moins) et... rien de plus. Demandez la même chose à un enfant de cinq ans, il vous répondra probablement du tac au tac (sans doute en riant), même s’il ne s’était jamais posé cette question auparavant.

Intelligence artificielle
Crédits : archy13/iStock

Une IA « forte » dans les 15 prochaines années ? Pas si vite...

Cependant, il n’y a que peu de chance qu’une IA forte, c’est-à-dire ayant conscience d’elle-même, n’arrive dans les 15 prochaines années... pour peu qu'elle puisse un jour être développée. Comme le rappelle le spécialiste Yann LeCun : « nous ne connaissons toujours pas les principes de l'apprentissage prédictif (aussi appelé apprentissage non supervisé). C'est ce type d'apprentissage qui permet aux humains (et aux animaux) d'acquérir du bon sens ».

Quoi qu’il en soit, la course à l’IA est lancée depuis des années, notamment du côté des fabricants de puces qui se battent à coups de millions/milliards de FLOPS. Les supercalculateurs sont de plus en plus nombreux, et l’Europe ne compte pas se laisser distancer. Elle veut occuper pas moins de trois places dans le top 5 d’ici 2020.

La puissance de calcul actuelle de la machine la plus rapide dépasse les 100 pétaflops, se rapprochant doucement mais sûrement du Graal : un exaflops, soit 1 000 pétaflops ou un milliard de milliards d’opérations par seconde. Pour certains scientifiques, il s’agit d’une « frontière symbolique puisqu’elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain », bien que soit encore à prouver. Et il reste à trouver les algorithmes capables de simuler un cerveau humain. Sur ce sujet, les prochaines années promettent d’être passionnantes.

L’informatique quantique...

Toujours dans le domaine de l’informatique, la physique quantique prend une place de plus en plus importante. Un calculateur quantique serait le Saint Graal avec une puissance de calcul sans commune mesure, mettant à mal certains systèmes de chiffrement… même si nous n’y sommes pas encore.

Le système RSA et les autres algorithmes asymétriques (avec des clés privées et publiques) pourraient devenir obsolètes du jour au lendemain. Mais il faut relativiser : les calculateurs quantiques actuels sont encore très loin d’avoir suffisamment de qubits (ou bits quantiques) pour espérer rivaliser, et il n’est pas si facile d’en ajouter puisque la cohérence quantique du système doit être maintenue. Sans entrer dans les détails, ce n’est pas une mince affaire.

Les algorithmes sont en tout cas déjà prêts, notamment celui de Shor pour factoriser un nombre. La relève n’a pas attendu, avec des algorithmes post-quantiques justement capables de résister à des calculateurs quantiques existant déjà. Certaines sociétés sont déjà en train de les tester en situation. Bref, le jeu du chat et de la souris entre les systèmes de chiffrement et les pirates durera encore longtemps.

Mais lorsque des ordinateurs quantiques suffisamment performants seront disponibles, il sera bien plus facile de décrypter d’anciens messages. La NSA, par exemple, conserve bien au chaud des données chiffrées interceptées pour les décrypter plus tard, lorsqu’elle aura une puissance de calcul suffisante.

Si les algorithmes asymétriques comme le RSA tomberont les premiers, les symétriques (AES par exemple) continueront à résister. En effet, un ordinateur quantique ne serait « que » deux fois plus rapide qu’un ordinateur classique sur de l’AES. Il suffira donc de doubler la taille des clés pour revenir au même niveau de sécurité.

... et la question de la « suprématie »

Fin 2019, nous sommes à un tournant (symbolique) : Google affirme avoir atteint la suprématie quantique avec sa puce Sycamore comprenant 53 qubits (des bits quantiques). Pour le CNRS, il s'agit « de prouver expérimentalement l’avantage du quantique sur le classique pour un algorithme donné ».

Google affirme que sa machine aurait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». Mais tout le monde n'est pas du même avis, à l'image d'IBM dont la contre-attaque ne s'est pas fait attendre. Pour Big Blue, la même tâche aurait pu être réalisée en 2,5 jours seulement sur un supercalculateur, voire moins avec des optimisations supplémentaires.

Mais peu importe : la barrière est symbolique, mais elle offre une visibilité importante pour la société qui arrive à la dépasser. La suprématie ne signifie pas en effet que les calculateurs quantiques vont mettre à mal la sécurité et le chiffrement du jour au lendemain. Il reste du travail et à multiplier les qubits, ce qui est tout sauf simple puisqu'il faut dans le même temps maintenir la cohérence quantique de l'ensemble.

Rappelons enfin que les machines quantiques n'ont pas vocation à remplacer les ordinateurs de bureau. Elles seront spécialisées dans le traitement de certaines instructions qu'elles pourront réaliser sans commune mesure avec les supercalculateurs. 

Intel quantique Sycamore
Machine quantique de Google et processeur Sycamore

La révolution de la santé est en marche

Autre domaine ayant le vent en poupe : la santé. Il est boosté par l’intelligence artificielle pour aider aux diagnostics, la robotique et la réalité virtuelle pour des opérations à distance, l’impression 3D pour des organes, etc.

Pour le docteur Guy Vallancien, chirurgien et membre de l'Académie nationale de médecine et membre de l'Office Parlementaire d'Évaluation des Choix Scientifiques et Technologiques (OPECST), « l'hôpital du futur ressemblera à tout, sauf à ce que l'on connaît aujourd'hui ».

Il livre ses prédictions à la mutuelle nationale des hospitaliers et des professionnels de la santé et du social (MNH), en reconnaissant tout de même qu’il « est difficile d’avoir une vision précise » car « l’explosion technologique sera exponentielle dans les 15 prochaines années » :

« On peut imaginer demain un hôpital hors les murs, dans une logique de partenariats ouverts avec les maisons de santé, les libéraux… Les centres hospitaliers seront remplacés par des Groupes médico-universitaires qui inonderont les territoires.

Le recours massif aux technologies médicales, que ce soient les robots chirurgiens, les applications de santé, les outils de la télémédecine, l’imagerie médicale ou simplement les ressources de l’informatique, devra permettre au médecin de déléguer à des techniciens, des infirmières, mais aussi aux malades eux-mêmes, de nombreuses tâches qui lui incombaient jusqu’alors. Le médecin devrait alors se concentrer sur l’écoute, l’accompagnement et la décision. »

Puisqu’on parle de santé, terminons avec un mot synonyme de doux rêve pour certains et de peur pour d’autres : transhumanisme, alias l’humain augmenté.

L’encyclopédie Universalis explique que cette notion « repose sur la conviction, propagée par un nombre croissant de scientifiques et de futurologues, qu’une évolution voulue, orientée, choisie de l’espèce humaine est désormais possible, en s’appuyant sur des techniques nouvelles qui permettent d’intervenir non seulement sur l’individu mais aussi, à travers lui, sur l’espèce ».

Santé 2.0
Crédits : metamorworks/iStock

L’humain augmenté, bientôt sur une clé USB ?

Le but ultime serait de fusionner l’homme et la machine, en « téléchargeant » par exemple son cerveau sur une entité numérique. Là encore, la science-fiction a pris les devants. Un des derniers exemples en date : Lucy, de Luc Besson, qui finit dans une clé USB.

« Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanes », affirment les neuroscientifiques Jean Mariani et Danièle Tritsch.

Pour les deux chercheurs du CNRS, « derrière le mythe transhumaniste s’avance masquée une gigantesque toile d’intérêts économiques. Les transhumanistes sont le pur produit d’une société où les puissances de l’argent, banques, multinationales industrielles et politiques règnent en maîtres ».

Pour eux, « il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en seront faits ».

Humain clé USB
Crédits : jayfish/iStock

L’ADN remplacera-t-il les disques durs et SSD ?

Et puisque l’on aborde les interactions vivant/machine, parlons stockage dans l’ADN. C’est potentiellement une technologie d’avenir. Elle est prometteuse sur plusieurs points : une densité sans commune mesure avec les systèmes actuels – on parle d’un zettaoctet (1 000 000 To) par gramme – et une longévité qui se chiffre en milliers d’années. Reste néanmoins deux gros points noirs : sa mise en œuvre et son prix.

Début 2017, des chercheurs annonçaient avoir franchi un cap avec une densité à faire pâlir tous les stockages magnétiques ou flash : 215 pétaoctets (soit 215 000 To) par gramme. Il était alors question d’un tarif approximatif de 3 500 dollars... par Mo. On vous laisse faire le calcul pour un gramme.

Début 2019, quatre chercheurs de l’université de Washington et de Microsoft réussissaient un petit exploit dans l’utilisation de l’ADN : coder et lire le mot «  hello  » avec un système entièrement automatisé de bout en bout  ; une première selon les scientifiques.

Avant que le stockage de données sur l’ADN arrive, il faut réussir à automatiser le processus et diminuer le coût, faute de quoi cette technologie sera mort-née. La densité qu’elle fait miroiter combinée à l’explosion année après année des données produites explique que de nombreux chercheurs planchent sur le sujet. Trouveront-ils une solution viable dans les quinze prochaines années ? Impossible de se prononcer à l’heure actuelle.

ADN
Crédits : BlackJack3D/iStock

Prudence et esprit critique pour les prochaines années

Comme on vient de le voir, des découvertes scientifiques majeures peuvent prendre du temps avant de déboucher sur des utilisations concrètes et à grande échelle (pour celles qui arrivent à percer). Regarder 20 ans en arrière permet d’esquisser les tendances des 20 prochaines années, mais nous ne sommes pas à l’abri d’une découverte inattendue venant tout chambouler.

Il faut rester vigilant sur les annonces et les usages, notamment celles autour de l’intelligence artificielle qui ont tendance à faire passer un algorithme pour une IA, ou une simple base de données pour une blockchain. Un conseil qu’il convient finalement d’appliquer à tous les domaines de recherche. Il est primordial de regarder au-delà des effets d’annonces, qui bien trop souvent flirtent ou même embrassent le sensationnalisme.

Les reprises dans les médias sont parfois en cause, en sacrifiant la portée réelle des faits sur l’autel du clickbait. Mais certains scientifiques, instituts et sociétés sont parfois à blâmer en essayant de faire passer des vessies pour des lanternes, pour la simple visibilité. Bref, il faut savoir se poser les bonnes questions, dépasser le titre ou le résumé de quelques lignes, qui font forcément l’impasse sur les zones d’ombres.

Il faut également éviter d’extrapoler, sans pour autant minimiser. Par exemple, on ne compte plus les publications scientifiques et les promesses affirmant révolutionner le monde des batteries/piles… mais force est de constater que pas grand-chose ne change.  D’un autre côté, observer directement des ondes gravitationnelles ou un trou noir est bien plus important qu’il n’y paraît.

Esprit critique
Crédits : izusek/iStock

N'est pas Isaac Asimov qui veut

Pour un Isaac Asimov capable de faire des prédictions avec une justesse effrayante et un scientifique de la trempe d’Albert Einstein, combien d’autres se sont copieusement trompés dans leurs prédictions ou hypothèses ? Pas facile en effet de deviner le succès d’un produit ou d’une idée, ni son avenir.

Qui aurait prédit il y a dix ans qu’un bitcoin vaudrait un jour plus de 20 000 dollars ? En revenant en 1976, qui aurait pu prédire la situation aujourd’hui diamétralement opposée d’Apple et du Concorde, tous deux lancés la même année ?

Après avoir évité la faillite dans la fin des années 90, la marque à la Pomme est devenue la première entreprise au monde à dépasser les 1 000 milliards de dollars de capitalisation. Elle reste depuis des années l’une des plus puissantes et influentes du globe. De l’autre côté, il n’existe plus aucun avion de ligne supersonique commercialement en circulation.

Vous pouvez tenter votre chance en essayant de deviner quelles seront les technologies d’avenir dans 10, 15 ou 20 ans. Notez-les dans un coin ou enfermez-les dans une capsule temporelle pour les retrouver plus tard et les comparer à la réalité.


chargement
Chargement des commentaires...