Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté

Tout ça pour finir dans la matrice
Tech 14 min
Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté
Crédits : Devrimb/iStock

Après avoir regardé dans le rétroviseur des 20 dernières années de la science (au sens large), tournons les yeux vers l'avenir. Les promesses sont nombreuses : développement de l'intelligence artificielle, informatique quantique, santé 2.0, humain augmenté, révolution du stockage...

Dans la première partie de notre dossier sur 20 ans de découvertes scientifiques, nous étions revenus sur le séquençage du génome humain, la découverte du graphène, la blockchain, le bitcoin, les ondes gravitationnelles, le boson de Higgs, la conquête et la compréhension de l'univers, le transport du futur, etc. 

Notre dossier sur les découvertes scientifiques, les promesses pour l'avenir :

L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)

Si nous n’avons pas cité l'intelligence artificielle dans les révolutions scientifiques des 20 dernières années, c’est tout simplement car elle est bien plus ancienne. On retrouve des traces de machines « pensantes » dans la science-fiction dès les années 1920.

En 1950, c’était au tour des scientifiques de s’intéresser au sujet, sous l’impulsion du célèbre mathématicien Alan Turing et de son article « L’ordinateur et l’intelligence ». Il expose également un test pour savoir si une machine s’approche d’une intelligence humaine : « le jeu de l'imitation », plus connu sous le nom de test de Turing.

Publication Turing 1950
Crédits : manhattan rare books

Les travaux de recherches sont nombreux et, en 1956 (en même temps que le premier disque dur), le premier logiciel d’intelligence artificielle est créé par Allen Newell et Herbert Simon : Logic Theorist. « Il réalise tout seul des démonstrations de théorèmes mathématiques », explique le CEA. Un an plus tard, en 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un réseau de neurones : le Perceptron. Bref, l’intelligence artificielle existait déjà dans les années 50.

Ce n'est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques : le premier chatbot était né. Toujours en 1965, les premières questions autour de l’éthique et critiques sont soulevées par Hubert Dreyfus. Il met notamment en avant les émotions, absentes des algorithmes.

Après des « hivers », l'âge d’or de l’intelligence artificielle

L’histoire de l’intelligence artificielle est ensuite jalonnée de haut et de bas. Le premier « hiver de l’IA » est arrivé à la fin des années 1960. Passé la « hype » du moment, la désillusion a pris place face aux piètres performances des machines de l’époque. La science-fiction en fait par contre ses choux gras avec des films comme 2001 l’Odysée de l’Espace (1968), Star Wars (1977, avec les droïdes D2R2 et C-3PO) et Wargames (1983) pour ne citer que ces trois-là.

Il faudra attendre les années 80 pour que les investissements sur ce sujet reprennent, avec le développement des « systèmes experts » capables de remplacer l’homme dans des domaines bien précis. Une période de courte durée puisque l’ordinateur personnel concentrait les attentions et les investissements dès la fin des années 80.

L’intelligence artificielle revient dans les années 90, poussée par la puissance des ordinateurs. Ce duo va d’ailleurs faire des merveilles et continue aujourd’hui : l’augmentation exponentielle de la puissance de calcul et des capacités de stockage permettent d’améliorer toujours plus les IA.

Elle a d'ailleurs quelques faits d’armes : en 1997, l’application de reconnaissance vocale NaturallySpeaking 1.0 de Dragon System débarque sur Windows. La même année, Deep(er) Blue bat le champion d’échec Garry Kasparov. La première partie a fait couler beaucoup d’encre car l’intelligence artificielle a joué un coup très surprenant en sacrifiant un pion.

Mais, ce qui avait été pris pour « un signe d'intelligence supérieure » pourrait n’être qu’un bug car la machine n’arrivait pas à se décider entre plusieurs possibilités…. 20 ans plus tard, AlphaGo dépasse les humains au jeu de Go. L’intelligence artificielle n’en restera évidemment pas là.  Elle s’attaque désormais aux compétitions de jeux vidéo.

Grâce aux réseaux de neurones, à la puissance de calcul et aux bases de données qui explosent, les IA ne peuvent en effet que s’améliorer. Les prochaines années promettent d’être passionnantes sur ce point. Il reste néanmoins beaucoup de travail pour arriver à une intelligence artificielle « réellement intelligente ». Ceux qui ont testé Google Assistant, Amazon Alexa ou Siri d’Apple voient bien de quoi il est question.

Un exemple parmi tant d’autres : demandez à un assistant numérique « Un hippopotame sait-il jouer de la flûte ? ». Vous aurez droit à des recherches sur les hippopotames, des actualités surprenantes avec un rapport plus ou moins éloigné au sujet (surtout plus que moins) et... rien de plus. Demandez la même chose à un enfant de cinq ans, il vous répondra probablement du tac au tac (sans doute en riant), même s’il ne s’était jamais posé cette question auparavant.

Intelligence artificielle
Crédits : archy13/iStock

Une IA « forte » dans les 15 prochaines années ? Pas si vite...

Cependant, il n’y a que peu de chance qu’une IA forte, c’est-à-dire ayant conscience d’elle-même, n’arrive dans les 15 prochaines années... pour peu qu'elle puisse un jour être développée. Comme le rappelle le spécialiste Yann LeCun : « nous ne connaissons toujours pas les principes de l'apprentissage prédictif (aussi appelé apprentissage non supervisé). C'est ce type d'apprentissage qui permet aux humains (et aux animaux) d'acquérir du bon sens ».

Quoi qu’il en soit, la course à l’IA est lancée depuis des années, notamment du côté des fabricants de puces qui se battent à coups de millions/milliards de FLOPS. Les supercalculateurs sont de plus en plus nombreux, et l’Europe ne compte pas se laisser distancer. Elle veut occuper pas moins de trois places dans le top 5 d’ici 2020.

La puissance de calcul actuelle de la machine la plus rapide dépasse les 100 pétaflops, se rapprochant doucement mais sûrement du Graal : un exaflops, soit 1 000 pétaflops ou un milliard de milliards d’opérations par seconde. Pour certains scientifiques, il s’agit d’une « frontière symbolique puisqu’elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain », bien que soit encore à prouver. Et il reste à trouver les algorithmes capables de simuler un cerveau humain. Sur ce sujet, les prochaines années promettent d’être passionnantes.

L’informatique quantique...

Toujours dans le domaine de l’informatique, la physique quantique prend une place de plus en plus importante. Un calculateur quantique serait le Saint Graal avec une puissance de calcul sans commune mesure, mettant à mal certains systèmes de chiffrement… même si nous n’y sommes pas encore.

Le système RSA et les autres algorithmes asymétriques (avec des clés privées et publiques) pourraient devenir obsolètes du jour au lendemain. Mais il faut relativiser : les calculateurs quantiques actuels sont encore très loin d’avoir suffisamment de qubits (ou bits quantiques) pour espérer rivaliser, et il n’est pas si facile d’en ajouter puisque la cohérence quantique du système doit être maintenue. Sans entrer dans les détails, ce n’est pas une mince affaire.

Les algorithmes sont en tout cas déjà prêts, notamment celui de Shor pour factoriser un nombre. La relève n’a pas attendu, avec des algorithmes post-quantiques justement capables de résister à des calculateurs quantiques existant déjà. Certaines sociétés sont déjà en train de les tester en situation. Bref, le jeu du chat et de la souris entre les systèmes de chiffrement et les pirates durera encore longtemps.

Mais lorsque des ordinateurs quantiques suffisamment performants seront disponibles, il sera bien plus facile de décrypter d’anciens messages. La NSA, par exemple, conserve bien au chaud des données chiffrées interceptées pour les décrypter plus tard, lorsqu’elle aura une puissance de calcul suffisante.

Si les algorithmes asymétriques comme le RSA tomberont les premiers, les symétriques (AES par exemple) continueront à résister. En effet, un ordinateur quantique ne serait « que » deux fois plus rapide qu’un ordinateur classique sur de l’AES. Il suffira donc de doubler la taille des clés pour revenir au même niveau de sécurité.

... et la question de la « suprématie »

Fin 2019, nous sommes à un tournant (symbolique) : Google affirme avoir atteint la suprématie quantique avec sa puce Sycamore comprenant 53 qubits (des bits quantiques). Pour le CNRS, il s'agit « de prouver expérimentalement l’avantage du quantique sur le classique pour un algorithme donné ».

Google affirme que sa machine aurait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». Mais tout le monde n'est pas du même avis, à l'image d'IBM dont la contre-attaque ne s'est pas fait attendre. Pour Big Blue, la même tâche aurait pu être réalisée en 2,5 jours seulement sur un supercalculateur, voire moins avec des optimisations supplémentaires.

Mais peu importe : la barrière est symbolique, mais elle offre une visibilité importante pour la société qui arrive à la dépasser. La suprématie ne signifie pas en effet que les calculateurs quantiques vont mettre à mal la sécurité et le chiffrement du jour au lendemain. Il reste du travail et à multiplier les qubits, ce qui est tout sauf simple puisqu'il faut dans le même temps maintenir la cohérence quantique de l'ensemble.

Rappelons enfin que les machines quantiques n'ont pas vocation à remplacer les ordinateurs de bureau. Elles seront spécialisées dans le traitement de certaines instructions qu'elles pourront réaliser sans commune mesure avec les supercalculateurs. 

Intel quantique Sycamore
Machine quantique de Google et processeur Sycamore

La révolution de la santé est en marche

Autre domaine ayant le vent en poupe : la santé. Il est boosté par l’intelligence artificielle pour aider aux diagnostics, la robotique et la réalité virtuelle pour des opérations à distance, l’impression 3D pour des organes, etc.

Pour le docteur Guy Vallancien, chirurgien et membre de l'Académie nationale de médecine et membre de l'Office Parlementaire d'Évaluation des Choix Scientifiques et Technologiques (OPECST), « l'hôpital du futur ressemblera à tout, sauf à ce que l'on connaît aujourd'hui ».

Il livre ses prédictions à la mutuelle nationale des hospitaliers et des professionnels de la santé et du social (MNH), en reconnaissant tout de même qu’il « est difficile d’avoir une vision précise » car « l’explosion technologique sera exponentielle dans les 15 prochaines années » :

« On peut imaginer demain un hôpital hors les murs, dans une logique de partenariats ouverts avec les maisons de santé, les libéraux… Les centres hospitaliers seront remplacés par des Groupes médico-universitaires qui inonderont les territoires.

Le recours massif aux technologies médicales, que ce soient les robots chirurgiens, les applications de santé, les outils de la télémédecine, l’imagerie médicale ou simplement les ressources de l’informatique, devra permettre au médecin de déléguer à des techniciens, des infirmières, mais aussi aux malades eux-mêmes, de nombreuses tâches qui lui incombaient jusqu’alors. Le médecin devrait alors se concentrer sur l’écoute, l’accompagnement et la décision. »

Puisqu’on parle de santé, terminons avec un mot synonyme de doux rêve pour certains et de peur pour d’autres : transhumanisme, alias l’humain augmenté.

L’encyclopédie Universalis explique que cette notion « repose sur la conviction, propagée par un nombre croissant de scientifiques et de futurologues, qu’une évolution voulue, orientée, choisie de l’espèce humaine est désormais possible, en s’appuyant sur des techniques nouvelles qui permettent d’intervenir non seulement sur l’individu mais aussi, à travers lui, sur l’espèce ».

Santé 2.0
Crédits : metamorworks/iStock

L’humain augmenté, bientôt sur une clé USB ?

Le but ultime serait de fusionner l’homme et la machine, en « téléchargeant » par exemple son cerveau sur une entité numérique. Là encore, la science-fiction a pris les devants. Un des derniers exemples en date : Lucy, de Luc Besson, qui finit dans une clé USB.

« Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanes », affirment les neuroscientifiques Jean Mariani et Danièle Tritsch.

Pour les deux chercheurs du CNRS, « derrière le mythe transhumaniste s’avance masquée une gigantesque toile d’intérêts économiques. Les transhumanistes sont le pur produit d’une société où les puissances de l’argent, banques, multinationales industrielles et politiques règnent en maîtres ».

Pour eux, « il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en seront faits ».

Humain clé USB
Crédits : jayfish/iStock

L’ADN remplacera-t-il les disques durs et SSD ?

Et puisque l’on aborde les interactions vivant/machine, parlons stockage dans l’ADN. C’est potentiellement une technologie d’avenir. Elle est prometteuse sur plusieurs points : une densité sans commune mesure avec les systèmes actuels – on parle d’un zettaoctet (1 000 000 To) par gramme – et une longévité qui se chiffre en milliers d’années. Reste néanmoins deux gros points noirs : sa mise en œuvre et son prix.

Début 2017, des chercheurs annonçaient avoir franchi un cap avec une densité à faire pâlir tous les stockages magnétiques ou flash : 215 pétaoctets (soit 215 000 To) par gramme. Il était alors question d’un tarif approximatif de 3 500 dollars... par Mo. On vous laisse faire le calcul pour un gramme.

Début 2019, quatre chercheurs de l’université de Washington et de Microsoft réussissaient un petit exploit dans l’utilisation de l’ADN : coder et lire le mot «  hello  » avec un système entièrement automatisé de bout en bout  ; une première selon les scientifiques.

Avant que le stockage de données sur l’ADN arrive, il faut réussir à automatiser le processus et diminuer le coût, faute de quoi cette technologie sera mort-née. La densité qu’elle fait miroiter combinée à l’explosion année après année des données produites explique que de nombreux chercheurs planchent sur le sujet. Trouveront-ils une solution viable dans les quinze prochaines années ? Impossible de se prononcer à l’heure actuelle.

ADN
Crédits : BlackJack3D/iStock

Prudence et esprit critique pour les prochaines années

Comme on vient de le voir, des découvertes scientifiques majeures peuvent prendre du temps avant de déboucher sur des utilisations concrètes et à grande échelle (pour celles qui arrivent à percer). Regarder 20 ans en arrière permet d’esquisser les tendances des 20 prochaines années, mais nous ne sommes pas à l’abri d’une découverte inattendue venant tout chambouler.

Il faut rester vigilant sur les annonces et les usages, notamment celles autour de l’intelligence artificielle qui ont tendance à faire passer un algorithme pour une IA, ou une simple base de données pour une blockchain. Un conseil qu’il convient finalement d’appliquer à tous les domaines de recherche. Il est primordial de regarder au-delà des effets d’annonces, qui bien trop souvent flirtent ou même embrassent le sensationnalisme.

Les reprises dans les médias sont parfois en cause, en sacrifiant la portée réelle des faits sur l’autel du clickbait. Mais certains scientifiques, instituts et sociétés sont parfois à blâmer en essayant de faire passer des vessies pour des lanternes, pour la simple visibilité. Bref, il faut savoir se poser les bonnes questions, dépasser le titre ou le résumé de quelques lignes, qui font forcément l’impasse sur les zones d’ombres.

Il faut également éviter d’extrapoler, sans pour autant minimiser. Par exemple, on ne compte plus les publications scientifiques et les promesses affirmant révolutionner le monde des batteries/piles… mais force est de constater que pas grand-chose ne change.  D’un autre côté, observer directement des ondes gravitationnelles ou un trou noir est bien plus important qu’il n’y paraît.

Esprit critique
Crédits : izusek/iStock

N'est pas Isaac Asimov qui veut

Pour un Isaac Asimov capable de faire des prédictions avec une justesse effrayante et un scientifique de la trempe d’Albert Einstein, combien d’autres se sont copieusement trompés dans leurs prédictions ou hypothèses ? Pas facile en effet de deviner le succès d’un produit ou d’une idée, ni son avenir.

Qui aurait prédit il y a dix ans qu’un bitcoin vaudrait un jour plus de 20 000 dollars ? En revenant en 1976, qui aurait pu prédire la situation aujourd’hui diamétralement opposée d’Apple et du Concorde, tous deux lancés la même année ?

Après avoir évité la faillite dans la fin des années 90, la marque à la Pomme est devenue la première entreprise au monde à dépasser les 1 000 milliards de dollars de capitalisation. Elle reste depuis des années l’une des plus puissantes et influentes du globe. De l’autre côté, il n’existe plus aucun avion de ligne supersonique commercialement en circulation.

Vous pouvez tenter votre chance en essayant de deviner quelles seront les technologies d’avenir dans 10, 15 ou 20 ans. Notez-les dans un coin ou enfermez-les dans une capsule temporelle pour les retrouver plus tard et les comparer à la réalité.

34 commentaires
Avatar de tazvld Abonné
Avatar de tazvldtazvld- 28/10/19 à 16:19:49

Petite critique sur l'article : ce que vous utilisé pour "intelligence artificielle" est généralement de l'apprentissage automatique. Je n'aime pas le terme "intelligence artificielle" qui est plus souvent utilisé pour faire du racolage que pour son vrai sens. En effet, cette expression est très difficile à définir et généralement on limite ça à un mécanisme qui donne une impression d'intelligence. Le mot "impression" est très important dans la définition.

On a donc de l'autre coté l'apprentissage automatique, aussi connu sous le nom d'apprentissage statistique (avec un tel mot, tu fais fuire le public) ou machine learning pour les anglophones. Là, ça fait référence a quelque chose de plus précis et définissable. Une machine qui fait de l'apprentissage automatique, c'est machine qui s'améliore dans la réalisation d'une tache à l'aide d’expériences.

Donc, bien souvent l'apprentissage automatique est inclus dans l'intelligence artificielle, cependant, une simple régression linéaire fait avec Excel (c'est la base d'une partie des algo dans scikit-learn) peut être assimilé à un apprentissage automatique, mais c'est plus difficile de se dire que c'est de l'intelligence artificielle, l'impression d'intelligence n'étant pas vraiment là.

Dans les type d'apprentissage automatique, celle qui est beaucoup médiatisé ces dernières années, c'est l'apprentissage profond (deep learning). Cette technique a pas mal d'intérêt et offre une certaine souplesse. Mais on reste sur un apprentissage qui nécessite un très grand nombre d'exemple pour réaliser une tache. Dans l'exemple classique, un enfant tu lui montre 2-3 images d'un éléphant, il sera reconnaître une éléphant, un machine, même après 1000 images, tu n'es pas sûr d'identifier une image d'éléphant et de toute façon il sera toujours incapable de faire autre chose d'autre. L'avenir sera sûrement un algo qui saura combiner les connaissances déjà acquise. Et ça, on ne l'a pas encore.

Avatar de crocodudule INpactien
Avatar de crocodudulecrocodudule- 28/10/19 à 16:35:15

Sébastien, bien qu'il s'agisse nécessairement d'une chose un peu arbitraire, dans les trucs automatiques et qui sont doués d'une intelligence artificielle, tu as la chouette d'Aristote dans la Politique, te permettant de dater l'invention de l'IA à -320 av JC (cf. Héphaïstos)

Édité par crocodudule le 28/10/2019 à 16:36
Avatar de Skiz Ophraine Abonné
Avatar de Skiz OphraineSkiz Ophraine- 28/10/19 à 16:42:02

Tiens d'ailleurs ça me fais penser à une réflexion que faisait un gars dans un documentaire (dont je ne me souviens plus du titre) à propos des taux de réussite pour reconnaitre une image, comme un éléphant par exemple (exemple totalement au hasard :francais:).
 Le gars expliquait que les échecs ou succès de reconnaissance étaient totalement délirants, par exemple un éléphant en premier plan pouvait ne pas être reconnu par "l'IA"(alors que pour un humain ça lui sauterai au yeux) et dans d'autres cas ou l'éléphant était limite introuvable pour un être humain l'IA le trouvait.

 Bon je sais pas si j'ai été bien clair ! tout ça pour dire qu'une "IA" ne "voit" pas comme nous (à méditer sur le succès ou l’échec de la reconnaissance faciale).

Avatar de fred42 INpactien
Avatar de fred42fred42- 28/10/19 à 16:44:17

Ce n'est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques.

Non, il n'était pas capable de cela.
Il était juste capable de relancer sans cesse à partir de la dernière phrase du pseudo patient. Il était loin d'être un thérapeute.

Bref, c'était une farce.

Sinon, ça sert à quoi une phrase comme celle-là "Sans entrer dans les détails, ce n’est pas une mince affaire." dans un article journalistique ?

Avatar de anonyme_eef969e99a274610807fd9faa41faeaa Abonné

Concernant la comparaison du Concorde et Apple... au-delà de l'illustration parfaite de l'impossibilité de prévoir l'avenir (le supersonique n'existe plus en 2020 mais l'ordinateur personnel s'est démocratisé), on peut également comparer Apple des années 2000 avec le Minitel car Apple aujourd'hui, c'est surtout l'iPhone, le terminal qui sert à obtenir de l'information sur un écran (tous les services que France Telecom et SFR ont essayer de transposer en vain sur mobile avec le wap avant l'avènement de l'UMTS, appelé maintenant 3G).

Et on peut se rappeler IBM qui n'a pas cru à l'essor de l'ordinateur personnel dans les années 1970 et qui a mangé son chapeau face à Microsoft avant de revenir dans la course au cloud maintenant que tout le monde court après l'Eldorado du Big Data.

Avatar de anonyme_eef969e99a274610807fd9faa41faeaa Abonné

fred42 a écrit :

[...]
Sinon, ça sert à quoi une phrase comme celle-là "Sans entrer dans les détails, ce n’est pas une mince affaire." dans un article journalistique ?

probablement, ça veut dire : « mon article est suffisamment long, la suite au prochain épisode de Notre dossier sur les découvertes scientifiques, les promesses pour l'avenir. »

Avatar de Z-os INpactien
Avatar de Z-osZ-os- 28/10/19 à 17:03:40

[quote:6149940:joma74fr]Concernant la comparaison du Concorde et Apple... au-delà de l'illustration parfaite de l'impossibilité de prévoir l'avenir (le supersonique n'existe plus en 2020 mais l'ordinateur personnel s'est démocratisé),[quote]
Et pour le coup, on aurait très bien pu avoir le concorde qui fonctionne actuellement (sans avoir subi son premier accident si tôt) et Apple dans les choux à cause d'un incident personnel qu'aurait pu avoir Steve Jobs. Cela ne tient pas à grand chose.

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 28/10/19 à 17:10:29

En effet, les algo d'apprentissage profond ne voient pas vraiment comme nous.
La technique généralement utilisé pour les image s'appelle les couches de convolution, dont justement Yann LeCun est celui qui les as rendu célébre. Comme il dit, c'est autant inspiré des neurones de la vision qu'un avion est inspiré des oiseaux.

Je ne sais pas forcément très bien l'expliquer, mais un réseau de neurone va être assez brute dans sa façon de traiter une image et manque de souplesse qu'aurait un humain. Souvent, pour éviter ce genre de problème, il y a des astuce comme bruiter volontairement les images, redécouper, faire de rotation...

Cependant, ça a ces limite, ça reste une montagne de calculs derrière. Ainsi, telle l'effet papillion, en modifiant très légèrement une image de panda le faire dire que c'est un gibbon où à n'importe quoi d'autre que c'est une autruche.

Avatar de Arnaud3013 Abonné
Avatar de Arnaud3013Arnaud3013- 28/10/19 à 17:12:30

Pour la partie éléphants, cela dépends du type d'algorithme. Si tu prends du few shot learning, ça fonctionnera vraiment très bien et à partir de 1-5 images.

Avatar de koonic INpactien
Avatar de koonickoonic- 28/10/19 à 17:16:07

Pour ajouter une référence bibliographique, cela me rappelle le livre d'Eric de Riedmatten, XXIème siècle, les innovations qui vont bouleverser votre vie, publié en 2006. Je n'avais lu que le début, mais je ne me souviens pas qu'il ait mentionné l'iPhone et le bitcoin.

Il n'est plus possible de commenter cette actualité.
Page 1 / 4
  • Introduction
  • L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)
  • Après des « hivers », l'âge d’or de l’intelligence artificielle
  • Une IA « forte » dans les 15 prochaines années ? Pas si vite...
  • L’informatique quantique...
  • ... et la question de la « suprématie »
  • La révolution de la santé est en marche
  • L’humain augmenté, bientôt sur une clé USB ?
  • L’ADN remplacera-t-il les disques durs et SSD ?
  • Prudence et esprit critique pour les prochaines années
  • N'est pas Isaac Asimov qui veut
S'abonner à partir de 3,75 €