Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté

Qu’attendre du futur ? De l’intelligence artificielle à l’humain augmenté

Tout ça pour finir dans la matrice

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

28/10/2019 16 minutes
34

Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté

Après avoir regardé dans le rétroviseur des 20 dernières années de la science (au sens large), tournons les yeux vers l'avenir. Les promesses sont nombreuses : développement de l'intelligence artificielle, informatique quantique, santé 2.0, humain augmenté, révolution du stockage...

Dans la première partie de notre dossier sur 20 ans de découvertes scientifiques, nous étions revenus sur le séquençage du génome humain, la découverte du graphène, la blockchain, le bitcoin, les ondes gravitationnelles, le boson de Higgs, la conquête et la compréhension de l'univers, le transport du futur, etc. 

Notre dossier sur les découvertes scientifiques, les promesses pour l'avenir :

L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)

Si nous n’avons pas cité l'intelligence artificielle dans les révolutions scientifiques des 20 dernières années, c’est tout simplement car elle est bien plus ancienne. On retrouve des traces de machines « pensantes » dans la science-fiction dès les années 1920.

En 1950, c’était au tour des scientifiques de s’intéresser au sujet, sous l’impulsion du célèbre mathématicien Alan Turing et de son article « L’ordinateur et l’intelligence ». Il expose également un test pour savoir si une machine s’approche d’une intelligence humaine : « le jeu de l'imitation », plus connu sous le nom de test de Turing.

Publication Turing 1950
Crédits : manhattan rare books

Les travaux de recherches sont nombreux et, en 1956 (en même temps que le premier disque dur), le premier logiciel d’intelligence artificielle est créé par Allen Newell et Herbert Simon : Logic Theorist. « Il réalise tout seul des démonstrations de théorèmes mathématiques », explique le CEA. Un an plus tard, en 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un réseau de neurones : le Perceptron. Bref, l’intelligence artificielle existait déjà dans les années 50.

Ce n'est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques : le premier chatbot était né. Toujours en 1965, les premières questions autour de l’éthique et critiques sont soulevées par Hubert Dreyfus. Il met notamment en avant les émotions, absentes des algorithmes.

Après des « hivers », l'âge d’or de l’intelligence artificielle

L’histoire de l’intelligence artificielle est ensuite jalonnée de haut et de bas. Le premier « hiver de l’IA » est arrivé à la fin des années 1960. Passé la « hype » du moment, la désillusion a pris place face aux piètres performances des machines de l’époque. La science-fiction en fait par contre ses choux gras avec des films comme 2001 l’Odysée de l’Espace (1968), Star Wars (1977, avec les droïdes D2R2 et C-3PO) et Wargames (1983) pour ne citer que ces trois-là.

Il faudra attendre les années 80 pour que les investissements sur ce sujet reprennent, avec le développement des « systèmes experts » capables de remplacer l’homme dans des domaines bien précis. Une période de courte durée puisque l’ordinateur personnel concentrait les attentions et les investissements dès la fin des années 80.

L’intelligence artificielle revient dans les années 90, poussée par la puissance des ordinateurs. Ce duo va d’ailleurs faire des merveilles et continue aujourd’hui : l’augmentation exponentielle de la puissance de calcul et des capacités de stockage permettent d’améliorer toujours plus les IA.

Elle a d'ailleurs quelques faits d’armes : en 1997, l’application de reconnaissance vocale NaturallySpeaking 1.0 de Dragon System débarque sur Windows. La même année, Deep(er) Blue bat le champion d’échec Garry Kasparov. La première partie a fait couler beaucoup d’encre car l’intelligence artificielle a joué un coup très surprenant en sacrifiant un pion.

Mais, ce qui avait été pris pour « un signe d'intelligence supérieure » pourrait n’être qu’un bug car la machine n’arrivait pas à se décider entre plusieurs possibilités…. 20 ans plus tard, AlphaGo dépasse les humains au jeu de Go. L’intelligence artificielle n’en restera évidemment pas là.  Elle s’attaque désormais aux compétitions de jeux vidéo.

Grâce aux réseaux de neurones, à la puissance de calcul et aux bases de données qui explosent, les IA ne peuvent en effet que s’améliorer. Les prochaines années promettent d’être passionnantes sur ce point. Il reste néanmoins beaucoup de travail pour arriver à une intelligence artificielle « réellement intelligente ». Ceux qui ont testé Google Assistant, Amazon Alexa ou Siri d’Apple voient bien de quoi il est question.

Un exemple parmi tant d’autres : demandez à un assistant numérique « Un hippopotame sait-il jouer de la flûte ? ». Vous aurez droit à des recherches sur les hippopotames, des actualités surprenantes avec un rapport plus ou moins éloigné au sujet (surtout plus que moins) et... rien de plus. Demandez la même chose à un enfant de cinq ans, il vous répondra probablement du tac au tac (sans doute en riant), même s’il ne s’était jamais posé cette question auparavant.

Intelligence artificielle
Crédits : archy13/iStock

Une IA « forte » dans les 15 prochaines années ? Pas si vite...

Cependant, il n’y a que peu de chance qu’une IA forte, c’est-à-dire ayant conscience d’elle-même, n’arrive dans les 15 prochaines années... pour peu qu'elle puisse un jour être développée. Comme le rappelle le spécialiste Yann LeCun : « nous ne connaissons toujours pas les principes de l'apprentissage prédictif (aussi appelé apprentissage non supervisé). C'est ce type d'apprentissage qui permet aux humains (et aux animaux) d'acquérir du bon sens ».

Quoi qu’il en soit, la course à l’IA est lancée depuis des années, notamment du côté des fabricants de puces qui se battent à coups de millions/milliards de FLOPS. Les supercalculateurs sont de plus en plus nombreux, et l’Europe ne compte pas se laisser distancer. Elle veut occuper pas moins de trois places dans le top 5 d’ici 2020.

La puissance de calcul actuelle de la machine la plus rapide dépasse les 100 pétaflops, se rapprochant doucement mais sûrement du Graal : un exaflops, soit 1 000 pétaflops ou un milliard de milliards d’opérations par seconde. Pour certains scientifiques, il s’agit d’une « frontière symbolique puisqu’elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain », bien que soit encore à prouver. Et il reste à trouver les algorithmes capables de simuler un cerveau humain. Sur ce sujet, les prochaines années promettent d’être passionnantes.

L’informatique quantique...

Toujours dans le domaine de l’informatique, la physique quantique prend une place de plus en plus importante. Un calculateur quantique serait le Saint Graal avec une puissance de calcul sans commune mesure, mettant à mal certains systèmes de chiffrement… même si nous n’y sommes pas encore.

Le système RSA et les autres algorithmes asymétriques (avec des clés privées et publiques) pourraient devenir obsolètes du jour au lendemain. Mais il faut relativiser : les calculateurs quantiques actuels sont encore très loin d’avoir suffisamment de qubits (ou bits quantiques) pour espérer rivaliser, et il n’est pas si facile d’en ajouter puisque la cohérence quantique du système doit être maintenue. Sans entrer dans les détails, ce n’est pas une mince affaire.

Les algorithmes sont en tout cas déjà prêts, notamment celui de Shor pour factoriser un nombre. La relève n’a pas attendu, avec des algorithmes post-quantiques justement capables de résister à des calculateurs quantiques existant déjà. Certaines sociétés sont déjà en train de les tester en situation. Bref, le jeu du chat et de la souris entre les systèmes de chiffrement et les pirates durera encore longtemps.

Mais lorsque des ordinateurs quantiques suffisamment performants seront disponibles, il sera bien plus facile de décrypter d’anciens messages. La NSA, par exemple, conserve bien au chaud des données chiffrées interceptées pour les décrypter plus tard, lorsqu’elle aura une puissance de calcul suffisante.

Si les algorithmes asymétriques comme le RSA tomberont les premiers, les symétriques (AES par exemple) continueront à résister. En effet, un ordinateur quantique ne serait « que » deux fois plus rapide qu’un ordinateur classique sur de l’AES. Il suffira donc de doubler la taille des clés pour revenir au même niveau de sécurité.

... et la question de la « suprématie »

Fin 2019, nous sommes à un tournant (symbolique) : Google affirme avoir atteint la suprématie quantique avec sa puce Sycamore comprenant 53 qubits (des bits quantiques). Pour le CNRS, il s'agit « de prouver expérimentalement l’avantage du quantique sur le classique pour un algorithme donné ».

Google affirme que sa machine aurait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». Mais tout le monde n'est pas du même avis, à l'image d'IBM dont la contre-attaque ne s'est pas fait attendre. Pour Big Blue, la même tâche aurait pu être réalisée en 2,5 jours seulement sur un supercalculateur, voire moins avec des optimisations supplémentaires.

Mais peu importe : la barrière est symbolique, mais elle offre une visibilité importante pour la société qui arrive à la dépasser. La suprématie ne signifie pas en effet que les calculateurs quantiques vont mettre à mal la sécurité et le chiffrement du jour au lendemain. Il reste du travail et à multiplier les qubits, ce qui est tout sauf simple puisqu'il faut dans le même temps maintenir la cohérence quantique de l'ensemble.

Rappelons enfin que les machines quantiques n'ont pas vocation à remplacer les ordinateurs de bureau. Elles seront spécialisées dans le traitement de certaines instructions qu'elles pourront réaliser sans commune mesure avec les supercalculateurs. 

Intel quantique Sycamore
Machine quantique de Google et processeur Sycamore

La révolution de la santé est en marche

Autre domaine ayant le vent en poupe : la santé. Il est boosté par l’intelligence artificielle pour aider aux diagnostics, la robotique et la réalité virtuelle pour des opérations à distance, l’impression 3D pour des organes, etc.

Pour le docteur Guy Vallancien, chirurgien et membre de l'Académie nationale de médecine et membre de l'Office Parlementaire d'Évaluation des Choix Scientifiques et Technologiques (OPECST), « l'hôpital du futur ressemblera à tout, sauf à ce que l'on connaît aujourd'hui ».

Il livre ses prédictions à la mutuelle nationale des hospitaliers et des professionnels de la santé et du social (MNH), en reconnaissant tout de même qu’il « est difficile d’avoir une vision précise » car « l’explosion technologique sera exponentielle dans les 15 prochaines années » :

« On peut imaginer demain un hôpital hors les murs, dans une logique de partenariats ouverts avec les maisons de santé, les libéraux… Les centres hospitaliers seront remplacés par des Groupes médico-universitaires qui inonderont les territoires.

Le recours massif aux technologies médicales, que ce soient les robots chirurgiens, les applications de santé, les outils de la télémédecine, l’imagerie médicale ou simplement les ressources de l’informatique, devra permettre au médecin de déléguer à des techniciens, des infirmières, mais aussi aux malades eux-mêmes, de nombreuses tâches qui lui incombaient jusqu’alors. Le médecin devrait alors se concentrer sur l’écoute, l’accompagnement et la décision. »

Puisqu’on parle de santé, terminons avec un mot synonyme de doux rêve pour certains et de peur pour d’autres : transhumanisme, alias l’humain augmenté.

L’encyclopédie Universalis explique que cette notion « repose sur la conviction, propagée par un nombre croissant de scientifiques et de futurologues, qu’une évolution voulue, orientée, choisie de l’espèce humaine est désormais possible, en s’appuyant sur des techniques nouvelles qui permettent d’intervenir non seulement sur l’individu mais aussi, à travers lui, sur l’espèce ».

Santé 2.0
Crédits : metamorworks/iStock

L’humain augmenté, bientôt sur une clé USB ?

Le but ultime serait de fusionner l’homme et la machine, en « téléchargeant » par exemple son cerveau sur une entité numérique. Là encore, la science-fiction a pris les devants. Un des derniers exemples en date : Lucy, de Luc Besson, qui finit dans une clé USB.

« Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanes », affirment les neuroscientifiques Jean Mariani et Danièle Tritsch.

Pour les deux chercheurs du CNRS, « derrière le mythe transhumaniste s’avance masquée une gigantesque toile d’intérêts économiques. Les transhumanistes sont le pur produit d’une société où les puissances de l’argent, banques, multinationales industrielles et politiques règnent en maîtres ».

Pour eux, « il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en seront faits ».

Humain clé USB
Crédits : jayfish/iStock

L’ADN remplacera-t-il les disques durs et SSD ?

Et puisque l’on aborde les interactions vivant/machine, parlons stockage dans l’ADN. C’est potentiellement une technologie d’avenir. Elle est prometteuse sur plusieurs points : une densité sans commune mesure avec les systèmes actuels – on parle d’un zettaoctet (1 000 000 To) par gramme – et une longévité qui se chiffre en milliers d’années. Reste néanmoins deux gros points noirs : sa mise en œuvre et son prix.

Début 2017, des chercheurs annonçaient avoir franchi un cap avec une densité à faire pâlir tous les stockages magnétiques ou flash : 215 pétaoctets (soit 215 000 To) par gramme. Il était alors question d’un tarif approximatif de 3 500 dollars... par Mo. On vous laisse faire le calcul pour un gramme.

Début 2019, quatre chercheurs de l’université de Washington et de Microsoft réussissaient un petit exploit dans l’utilisation de l’ADN : coder et lire le mot «  hello  » avec un système entièrement automatisé de bout en bout  ; une première selon les scientifiques.

Avant que le stockage de données sur l’ADN arrive, il faut réussir à automatiser le processus et diminuer le coût, faute de quoi cette technologie sera mort-née. La densité qu’elle fait miroiter combinée à l’explosion année après année des données produites explique que de nombreux chercheurs planchent sur le sujet. Trouveront-ils une solution viable dans les quinze prochaines années ? Impossible de se prononcer à l’heure actuelle.

ADN
Crédits : BlackJack3D/iStock

Prudence et esprit critique pour les prochaines années

Comme on vient de le voir, des découvertes scientifiques majeures peuvent prendre du temps avant de déboucher sur des utilisations concrètes et à grande échelle (pour celles qui arrivent à percer). Regarder 20 ans en arrière permet d’esquisser les tendances des 20 prochaines années, mais nous ne sommes pas à l’abri d’une découverte inattendue venant tout chambouler.

Il faut rester vigilant sur les annonces et les usages, notamment celles autour de l’intelligence artificielle qui ont tendance à faire passer un algorithme pour une IA, ou une simple base de données pour une blockchain. Un conseil qu’il convient finalement d’appliquer à tous les domaines de recherche. Il est primordial de regarder au-delà des effets d’annonces, qui bien trop souvent flirtent ou même embrassent le sensationnalisme.

Les reprises dans les médias sont parfois en cause, en sacrifiant la portée réelle des faits sur l’autel du clickbait. Mais certains scientifiques, instituts et sociétés sont parfois à blâmer en essayant de faire passer des vessies pour des lanternes, pour la simple visibilité. Bref, il faut savoir se poser les bonnes questions, dépasser le titre ou le résumé de quelques lignes, qui font forcément l’impasse sur les zones d’ombres.

Il faut également éviter d’extrapoler, sans pour autant minimiser. Par exemple, on ne compte plus les publications scientifiques et les promesses affirmant révolutionner le monde des batteries/piles… mais force est de constater que pas grand-chose ne change.  D’un autre côté, observer directement des ondes gravitationnelles ou un trou noir est bien plus important qu’il n’y paraît.

Esprit critique
Crédits : izusek/iStock

N'est pas Isaac Asimov qui veut

Pour un Isaac Asimov capable de faire des prédictions avec une justesse effrayante et un scientifique de la trempe d’Albert Einstein, combien d’autres se sont copieusement trompés dans leurs prédictions ou hypothèses ? Pas facile en effet de deviner le succès d’un produit ou d’une idée, ni son avenir.

Qui aurait prédit il y a dix ans qu’un bitcoin vaudrait un jour plus de 20 000 dollars ? En revenant en 1976, qui aurait pu prédire la situation aujourd’hui diamétralement opposée d’Apple et du Concorde, tous deux lancés la même année ?

Après avoir évité la faillite dans la fin des années 90, la marque à la Pomme est devenue la première entreprise au monde à dépasser les 1 000 milliards de dollars de capitalisation. Elle reste depuis des années l’une des plus puissantes et influentes du globe. De l’autre côté, il n’existe plus aucun avion de ligne supersonique commercialement en circulation.

Vous pouvez tenter votre chance en essayant de deviner quelles seront les technologies d’avenir dans 10, 15 ou 20 ans. Notez-les dans un coin ou enfermez-les dans une capsule temporelle pour les retrouver plus tard et les comparer à la réalité.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)

Après des « hivers », l'âge d’or de l’intelligence artificielle

Une IA « forte » dans les 15 prochaines années ? Pas si vite...

L’informatique quantique...

... et la question de la « suprématie »

La révolution de la santé est en marche

L’humain augmenté, bientôt sur une clé USB ?

L’ADN remplacera-t-il les disques durs et SSD ?

Prudence et esprit critique pour les prochaines années

N'est pas Isaac Asimov qui veut

Fermer

Commentaires (34)


Petite critique sur l’article : ce que vous utilisé pour “intelligence artificielle” est généralement de l’apprentissage automatique. Je n’aime pas le terme “intelligence artificielle” qui est plus souvent utilisé pour faire du racolage que pour son vrai sens. En effet, cette expression est très difficile à définir et généralement on limite ça à un mécanisme qui donne une impression d’intelligence. Le mot “impression” est très important dans la définition.



On a donc de l’autre coté l’apprentissage automatique, aussi connu sous le nom d’apprentissage statistique (avec un tel mot, tu fais fuire le public) ou machine learning pour les anglophones. Là, ça fait référence a quelque chose de plus précis et définissable. Une machine qui fait de l’apprentissage automatique, c’est machine qui s’améliore dans la réalisation d’une tache à l’aide d’expériences.



Donc, bien souvent l’apprentissage automatique est inclus dans l’intelligence artificielle, cependant, une simple régression linéaire fait avec Excel (c’est la base d’une partie des algo dans scikit-learn) peut être assimilé à un apprentissage automatique, mais c’est plus difficile de se dire que c’est de l’intelligence artificielle, l’impression d’intelligence n’étant pas vraiment là.



Dans les type d’apprentissage automatique, celle qui est beaucoup médiatisé ces dernières années, c’est l’apprentissage profond (deep learning). Cette technique a pas mal d’intérêt et offre une certaine souplesse. Mais on reste sur un apprentissage qui nécessite un très grand nombre d’exemple pour réaliser une tache. Dans l’exemple classique, un enfant tu lui montre 2-3 images d’un éléphant, il sera reconnaître une éléphant, un machine, même après 1000 images, tu n’es pas sûr d’identifier une image d’éléphant et de toute façon il sera toujours incapable de faire autre chose d’autre. L’avenir sera sûrement un algo qui saura combiner les connaissances déjà acquise. Et ça, on ne l’a pas encore.


Sébastien, bien qu’il s’agisse nécessairement d’une chose un peu arbitraire, dans les trucs automatiques et qui sont doués d’une intelligence artificielle, tu as la chouette d’Aristote dans la Politique, te permettant de dater l’invention de l’IA à -320 av JC (cf. Héphaïstos)


Tiens d’ailleurs ça me fais penser à une réflexion que faisait un gars dans un documentaire (dont je ne me souviens plus du titre) à propos des taux de réussite pour reconnaitre une image, comme un éléphant par exemple (exemple totalement au hasard <img data-src=" />).

&nbsp;Le gars expliquait que les échecs ou succès de reconnaissance étaient totalement délirants, par exemple un éléphant en premier plan pouvait ne pas être reconnu par “l’IA”(alors que pour un humain ça lui sauterai au yeux) et dans d’autres cas ou l’éléphant était limite introuvable pour un être humain l’IA le trouvait.



&nbsp;Bon je sais pas si j’ai été bien clair ! tout ça pour dire qu’une “IA” ne “voit” pas comme nous (à méditer sur le succès ou l’échec de la reconnaissance faciale).


Ce n’est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques.



Non, il n’était pas capable de cela.

Il était juste capable de relancer sans cesse à partir de la dernière phrase du pseudo patient. Il était loin d’être un thérapeute.



Bref, c’était une farce.



Sinon, ça sert à quoi une phrase comme celle-là “Sans entrer dans les détails, ce n’est pas une mince affaire.” dans un article journalistique ?


Concernant la comparaison du Concorde et Apple… au-delà de l’illustration parfaite de l’impossibilité de prévoir l’avenir (le supersonique n’existe plus en 2020 mais l’ordinateur personnel s’est démocratisé), on peut également comparer Apple des années 2000 avec le Minitel car Apple aujourd’hui, c’est surtout l’iPhone, le terminal qui sert à obtenir de l’information sur un écran (tous les services que France Telecom et SFR ont essayer de transposer en vain sur mobile avec le wap avant l’avènement de l’UMTS, appelé maintenant 3G).



Et on peut se rappeler IBM qui n’a pas cru à l’essor de l’ordinateur personnel dans les années 1970 et qui a mangé son chapeau face à Microsoft avant de revenir dans la course au cloud maintenant que tout le monde court après l’Eldorado du Big Data.








fred42 a écrit :



[…]

Sinon, ça sert à quoi une phrase comme celle-là “Sans entrer dans les détails, ce n’est pas une mince affaire.” dans un article journalistique ?





probablement, ça veut dire : « mon article est suffisamment long, la suite au prochain épisode de Notre dossier sur&nbsp;les découvertes scientifiques, les promesses pour l’avenir. »



[quote:6149940:joma74fr]Concernant la comparaison du Concorde et Apple… au-delà de l’illustration parfaite de l’impossibilité de prévoir l’avenir (le supersonique n’existe plus en 2020 mais l’ordinateur personnel s’est démocratisé),[quote]

Et pour le coup, on aurait très bien pu avoir le concorde qui fonctionne actuellement (sans avoir subi son premier accident si tôt) et Apple dans les choux à cause d’un incident personnel qu’aurait pu avoir Steve Jobs. Cela ne tient pas à grand chose.


En effet, les algo d’apprentissage profond ne voient pas vraiment comme nous.

La technique généralement utilisé pour les image s’appelle les couches de convolution, dont justement Yann LeCun est celui qui les as rendu célébre. Comme il dit, c’est autant inspiré des neurones de la vision qu’un avion est inspiré des oiseaux.



Je ne sais pas forcément très bien l’expliquer, mais un réseau de neurone va être assez brute dans sa façon de traiter une image et manque de souplesse qu’aurait un humain. Souvent, pour éviter ce genre de problème, il y a des astuce comme bruiter volontairement les images, redécouper, faire de rotation…



Cependant, ça a ces limite, ça reste une montagne de calculs derrière. Ainsi, telle l’effet papillion, en modifiant très légèrement une image de panda le faire dire que c’est un gibbon où à n’importe quoi d’autre que c’est une autruche.


Pour la partie éléphants, cela dépends du type d’algorithme. Si tu prends du few shot learning, ça fonctionnera vraiment très bien et à partir de 1-5 images.


Pour ajouter une référence bibliographique, cela me rappelle le livre d’Eric de Riedmatten, XXIème siècle, les innovations qui vont bouleverser votre vie, publié en 2006. Je n’avais lu que le début, mais je ne me souviens pas qu’il ait mentionné l’iPhone et le bitcoin.








tazvld a écrit :



En effet, les algo d’apprentissage profond ne voient pas vraiment comme nous.





En fait pour niquer une image il suffit d’un seul pixel, il y à plein de papier à propos de ça. Après il est logique que les algo ne voient pas comme nous et surtout à une résolution inférieure à la notre car les machines sont encore trop lente. Mais bon c’est le jours et la nuit rien qu’une simple détection d’un visage sur smartphone à 60 fps en full hd la ou il y à encore quelques années c’était du 5 fps en 320x240.



L’accident a mis un point final à la carrière du Concorde mais il était voué à s’arrêter de toute façon, bien trop énergivore et trop peu rentable. A partir de la crise pétrolière de 73 son sort était scellé.



[quote=Wikipedia]

&nbsp;Avant le désastre, Air France et British Airways voulaient maintenir le Concorde en exploitation jusqu’en 2007 voire 2017, l’appareil n’étant néanmoins rentable qu’avec un faible coût du carburant et les subventions publiques

[/quote]

&nbsp;

C’est ce même manque de rentabilité qui a fait que le Concorde n’était plus exploité que sur la seule ligne Paris-NY&nbsp; depuis 1983.



Edit: quote de porc…


Y’a quinze-vingt ans, je pensais que le stockage holographique (https://fr.wikipedia.org/wiki/M%C3%A9moire_holographique) allait être la prochaine révolution. Visiblement, j’avais tort&nbsp;¯\_(ツ)_/¯



Sinon, deux dessins de XKCD qu’il est bon de rappeler quand il s’agit de faire des prédictions :&nbsp;https://xkcd.com/678/&nbsp;et&nbsp;https://xkcd.com/1497/


j’au lu un papier scientifique sur ce sujet ce week end et pour répondre a cela il faut rendra dans des maths vraiment très pousse.

Est-ce vraiment nécessaire ici ? je ne crois pas


un convoluted neural network est en effet assez con.

chaque node a une fonction mathématique d’activation et un poids (parametre).

Tu lui donnes une image, il sort un résultat. tu lui dit que c’est mauvais, il change ses poids pour avoir un resultat different, ainsi de suite des millions de fois jusqu’à ce que le résultat soit moins mauvais, et tada ! je te vend de l’AI


J’avais lu ou entendu que le terme d’origine pour notre - mauvaise - traduction “intelligence artificielle”, à savoir “artificial intelligence”, était déjà un terme marketing qui jouait sur le double sens de “intelligence” en anglais. En fait, les premiers à avoir travaillé sur le sujet ont plus ou moins essayé de faire croire qu’ils allaient faire un ordinateur “intelligent” pour récupérer des financements, alors que le mot “intelligence” était en fait plus à prendre dans le sens de “Central Intelligence Agency”, à savoir l’analyse de renseignements. Parce que c’est quand même beaucoup plus de ça qu’il s’agit: on a une masse de données existantes, et on essaie de faire rentrer de nouvelles données dans les cases identifiées avec les anciennes. Et il n’y a clairement rien de vraiment “intelligent” là-dedans…

Quand on sait vaguement comment ça marche et les limitations que ça a, les fantasmes que ça peut générer font quand même un peu doucement rigoler…


“Le Graal : un exaflops[…]elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain”



Sauf qu’on ne connait pas clairement le fonctionnement du cerveau, surtout sa capacité d’apprentissage.

Avec un exaflop on aurait peut-être la machine mais pas le logiciel.



On reproduit des réseaux de neurones en informatique qu’on arrive à rendre “intelligent” en les gavant de données sur un sujet particulier.

Sauf que mon cerveau il n’a pas été instruit par un data-scientist!

J’ai appris à parler tout seul en quelques années simplement en écoutant et observant mes parents, personne ne m’a balancé -façon Orange Mécanique- un million d’images d’éléphants avec électrochoc tant je ne disais pas éléphant :)



Le cerveau apprend tout seul parfois dans la douleur “aïe la porte du four est chaude”, parfois par répétition par exemple à l’école, et souvent tout seul par raisonnement. Et là le raisonnement c’est complètement de la science-fiction : on ne comprend pas ces mécanismes qu’on ne peut pas reproduire.



Penser qu’un exaflop permettra de donner Raison à nos algos pourquoi pas où alors ils seront simplement plus rapidement conplètement hors sujet, et nécessiteront encore plus de parents data-scientist.








skankhunt42 a écrit :



En fait pour niquer une image il suffit d’un seul pixel, il y à plein de papier à propos de ça. Après il est logique que les algo ne voient pas comme nous et surtout à une résolution inférieure à la notre car les machines sont encore trop lente. Mais bon c’est le jours et la nuit rien qu’une simple détection d’un visage sur smartphone à 60 fps en full hd la ou il y à encore quelques années c’était du 5 fps en 320x240.





Non, ça ne se joue justement pas sur 1 pixel. Le pooling risque d’écraser ton pixel par l’information autour qui est bien plus fort et majoritaire. Les articles que tu pense travaille justement sur l’intégralité de l’image en faisant un décalage imperceptible des couleurs de tous les pixels de l’image. Ca doit agir en cascade, en décalant légèrement à chaque couche la bonne classification sur l’intégralité de l’image, la ou un seul pixel a peu de chance de contaminer l’intégralité de l’image avec une mauvaise prédiction.



Justement, ce genre de réseau, pour les rendre plus résiliant sont entraînés avec des données bruitées.



Aujourd’hui, l’une des force des réseau de neurone, c’est que dans l’application, ce n’est que des calcules sur des matrices qui est très facilement parallélisable sur des carte graphique (GPU) ou sur des circuits spécialisés (TPU : tensor process unit) sans nécessite forcément une précision de folie (on utilise souvent des bfloat16 qui a à peut prêt le même rang de valeur que le float32 mais avec beaucoup moins de précision). Du coup sur ton smartphone, tu as sûrement un circuit spécialisé qui est capable de faire ça, avec une consommation minimal.



Par exemple, derrièrement Google vient de mettre sur le marché une solution pour du IoT basé sur leur propre TPU qui permet de faire justement de la vidéo sans soucis à faible consommation.







Arnaud3013 a écrit :



Pour la partie éléphants, cela dépends du type d’algorithme. Si tu prends du few shot learning, ça fonctionnera vraiment très bien et à partir de 1-5 images.







Oui, en effet. Mais généralement, c’est plus difficile.



Alors, petite précision : les “neurones” dans les réseaux de neurones artificiels ressemble autant à un vrai neurone humain que l’aile d’un avions ressemble à une aile d’oiseaux.



Pour faire simple, on utilise le terme neurone car ça ressemble dans son fonctionnement :

ça prend plein d’entrée, ça applique un poids individuellement, ça somme tout ça d’une certaine façon et après, ça applique une fonction d’activation (le neurone biologique par exemple va rester éteint sur la valeur est trop faible et ensuite je crois que l’activation est plutôt une courbe qui atteint un palier). Mais derrière, pour le réseau de neurone d’un point de vu mathématique, c’est une fonction linéaire suivie d’une fonction non linéaire : autrement dit, c’est surtout des outils mathématiques.



Pour l’apprentissage, il existe ce que l’on appelle l’apprentissage par renforcement : à chaque unité de temps, la machine reçoit une récompense (ou une punition) et son but est de maximiser sa récompense globalement. Un bon système d’apprentissage par récompense va même pouvoir volontairement passer par une phase de punition car derrière il y a une espérance de un gain plus importante (oui, une histoire de probabilité). Il me semble que c’est ce qu’il y a derrière AlphaGo (qui joue au jeu de Go) et AlphaStar (qui joue à starcraft)



J’avais même lu qu’on essaie de développer des algo qui apprennent à apprendre (meta-learning : meta apprentissage ?).


le Concorde est mort à partir du moment&nbsp; ou Kennedy a passé son coup de fil au patron de la PanAm pour lui interdire d’en acheter… Ensuite l’exploitation des rares avions construit était dépendante du rapport coût / bénéfice d’image dont Air France et British Airways bénéficiaient grâce au plus beau et rapide avion civil de l’histoire.








tazvld a écrit :



Du coup sur ton smartphone, tu as sûrement un circuit spécialisé qui est capable de faire ça, avec une consommation minimal.





Ca ne m’étonnerait pas que ce soit avec ce genre de technos que les téléphones reconnaissent les empreintes digitales (nan, pas numériques pour une fois, nan <img data-src=" />). Ca paraît être pile poil dans leur domaine d’application, et ça expliquerait qu’on doive appuyer sur le bitonieau 1015 fois pour qu’il apprenne.









L’article a écrit :



« Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanes », affirment les neuroscientifiques Jean Mariani et Danièle Tritsch.





J’ai toujours trouvé fascinant que des gens puissent réellement souhaiter ça sans réaliser que même si on arrive à faire une machine qui imitent parfaitement leurs processus de pensée, ça ne sera pas une continuité de leur esprit, mais simplement un clone qui se comportera exactement comme eux l’auraient fait.

Eux vont tout de même mourir comme chacun de nous (sauf à ce qu’on trouve un remède à la sénescence, ce qui est une piste d’immortalité nettement plus intéressante), ils ne feront que nous infliger une copie robotisée de leur mégalomanie.



La problématique de la continuité du moi est exploré depuis un moment en philosophie. Mr phi a fait quelques vidéos sur le sujet à base d’expérience de pensée de clones et télé-porteurs, je recommande. (je recommande toute la chaine en fait)



Pour les empreintes, je pense que l’on est sur un algo plus classique. Le principe de base, c’est une image noir est blanc de ton empreinte, retrouver des motifs particulier dans les tracés (les minuties) et ensuite, a partir d’une certain nombre déterminer si l’agencement de ces point de repère colle avec celui que l’on connais.



Le fait de passer plusieurs fois le doigt, je pense que c’est pour avoir une “plage acceptable”. En passant plusieurs fois ton doigt dessus, tu obtient une notion de variabilité, ça va permettre du coup de connaître la plage “acceptable” (et même potentiellement déterminer si elle est solide où qu’elle accepte n’importe quoi)



Les réseaux de neurones ne sont pas forcément nécessaire et serait sûrement un peu overkill.



Cependant, il pourrait permettre de repérer efficacement les points de repère (puis derrière le reste de l’algo classique)



Mais on peut aussi imaginer faire du réseau de neurones de bout en bout, en apprenant au réseau à encoder sur une centaine de valeur une empreinte digitale de tel sorte que ce code soit similaire pour 2 empreintes similaire, et différentes pour 2 empreintes différente, lui laissant trouver par lui même comment faire la distinction.








Zerdligham a écrit :



J’ai toujours trouvé fascinant que des gens puissent réellement souhaiter ça sans réaliser que même si on arrive à faire une machine qui imitent parfaitement leurs processus de pensée, ça ne sera pas une continuité de leur esprit, mais simplement un clone qui se comportera exactement comme eux l’auraient fait.





jette un oeil au Basilic de Roko (ou à l’épisode “Les enfers artificiels” de DirtyBiology qui l’explique plutôt pas mal).

On y adhère ou pas (perso je suis dans la deuxième catégorie donc plutôt comme toi) mais certains pensent qu’une représentation parfaite de toi même simulée “est” toi.



J’aime pas trop cette interprétation non plus. Autant pour un extérieur, cette simulation sera indiscernable de moi, donc un autre peut considérer qu’elle est moi. Par contre de mon point de vue, aussi parfaite soit-elle, il n’y a pas de continuité entre moi et cette simulation. Je ne pourrai jamais considérer qu’elle est moi.

Ce qui peut être dérangeant par contre, c’est que je n’ai aucun moyen de savoir si je ne suis pas déjà cette simulation <img data-src=" />


le premier article avait un peu plus de bio, donc pour compléter celui-ci je me lance dans quelques prédictions, à dans 10 ans donc ;) :





  • je ne crois pas du tout au stockage de data dans l’ADN, en dehors peut être de structure très particulière (en gros pas chez un particulier). Bien qu’on ait réussi à améliorer la lecture (séquençage) et le décryptage (assemblage suite aux multiples séquençages), la synthèse d’ADN reste très complexe, conteuse en temps. Sans compter que si vous voulez faire du stockage sur des milliers d’années (voir plus, c’est l’avantage de l’ADN), il vous faut un système de lecture/écriture simple capable de survivre aussi longtemps que l’information elle-même. On a déjà du mal à lire des disquettes…



  • 2 innovations qui pour moi auront d’importante conséquences pour les gens dans les 10-15 ans :






  1. la bio-impression 3D notamment cartilage, mais aussi os, voir organe. Les recherches en labo sont prometteuses si ça marche, les conséquences médicales seront importantes



  2. tout ce qu’y découle de la mise au point de CRISPR/Cas9 : au delà des effets type “bébé chinois”, c’est surtout la possibilité de récupérer des cellules d’une personne malade, de modifier ces cellules puis de les réinjecter pour amener une résistance ou combattre une maladie (cas du VIH par ex).








fred42 a écrit :



Sinon, ça sert à quoi une phrase comme celle-là “Sans entrer dans les détails, ce n’est pas une mince affaire.” dans un article journalistique ?







Une illustration de ce que dit la V2 d’ELIZA.

<img data-src=" />









fred42 a écrit :



Sinon, ça sert à quoi une phrase comme celle-là “Sans entrer dans les détails, ce n’est pas une mince affaire.” dans un article journalistique ?





De justifier que, vu la complexité du sujet, il ne sera pas expliqué dans l’article pourquoi il n’est pas simple de maintenir la cohérence quantique du système.



Si je me souviens bien c’était un doc sur Arte, mais l’article que tu donnes en lien est instructif <img data-src=" />

<img data-src=" />


Ce que je trouve très fort dans ce billet conséquent, c’est de questionner “qu’attendre du futur ?” sans jamais lâcher le mot “progrès”








malock a écrit :



Ce que je trouve très fort dans ce billet conséquent, c’est de questionner “qu’attendre du futur ?” sans jamais lâcher le mot “progrès”



Vu que le progrès (au sens large) n’est pas toujours une bonne chose, c’est très bien de ne pas l’avoir utilisé <img data-src=" />



Absolument, je n’étais pas dans l’ironie. J’suis sur téléphone, pas su y mettre le bon smiley…

L’auteur a donc été très bon !








malock a écrit :



Absolument, je n’étais pas dans l’ironie. J’suis sur téléphone, pas su y mettre le bon smiley…

L’auteur a donc été très bon !



Je ne l’avais pas pris comme ironie, je complétais juste ton message <img data-src=" />