Une étude pointe les possibles effets pervers et dangers de l'intelligence artificielle

Une étude pointe les possibles effets pervers et dangers de l’intelligence artificielle

FAKE NEWS

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

26/02/2018 12 minutes
65

Une étude pointe les possibles effets pervers et dangers de l'intelligence artificielle

Phishing parfaitement calibré pour une cible, malware avec une incroyable capacité d'adaptation, robot détourné de sa fonction première pour identifier et détruire une cible, système prédictif de perturbation civile et « fake news ». Voici quelques exemples des dérives possibles de l'intelligence artificielle, mises en avant dans un (très) long rapport.

26 chercheurs provenant de 14 institutions d'horizons variés ont publié la semaine dernière un texte commun d'une centaine de pages dans lequel ils entendent mettre en garde contre une potentielle « utilisation malveillante de l'intelligence artificielle ».

Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d'Oxford, de l'alliance OpenAI pour la recherche ouverte sur l'IA, du Centre pour l'étude des risques existentiels (CSER) et de l'Electronic Frontier Foundation (EFF) pour ne citer qu'eux.

Encore un bilan sur les risques de l'intelligence artificielle

Baptisé « L'utilisation malveillante de l'intelligence artificielle : prévision, prévention et atténuation », il distille les résultats d'un atelier du Future of Humanity Institute organisé en février de l'année dernière. Le thème principal était justement les risques potentiels de l'intelligence artificielle, un sujet anxiogène pour certains.

On y retrouve également des recherches supplémentaires de la part des auteurs, ainsi que des contributions externes. Ils remercient par exemple des employés de Google/DeepMind, de Microsoft, des chercheurs de l'université de Carnegie-Mellon, des philosophes (Toby Ord et Nick Bostrom), le spécialiste de la nanotechnologie Kim Eric Drexler, etc.

Ce large bilan ne veut pas uniquement alerter des potentiels dangers, mais aussi et surtout ouvrir le débat avec le public, les dirigeants, les chercheurs et les responsables politiques. Ce n'est pas le premier rapport du genre, loin de là.

Pour rappel, au cours des derniers mois, nous nous sommes penchés sur l'épais rapport de la CNIL, les enjeux économiques et cadres légaux soulevés par le Sénat, le rapport européen sur les risques de l'intelligence artificielle, le bilan #FranceIA de France Stratégie et du CNNum, la très longue étude de 275 pages de l'OPECST et les « 23 principes d'Asilomar ».

Une évaluation des craintes pour les prochaines années

Concernant l'impact – surtout négatif dans le cas présent – de l'intelligence artificielle dans le monde, trois axes principaux sont développés dans ce nouveau rapport : numérique, physique et politique.

Après une présentation générale, les chercheurs nous proposent une projection dans le futur de ce que pourraient être des cas pratiques de dérives liées ou aidées par l'intelligence artificielle. Des idées de prévention et d'atténuation des risques sont également mises en avant. 

Après une lecture attentive de l'ensemble, voici notre bilan détaillé de ce qu'il faut en retenir.

Notre dossier sur le rapport du Future of Humanity Institute sur l'intelligence artificielle :

Une étude soutenue financièrement par le Future of Life Institute

Avant d'entrer dans le vif du sujet, prenons un peu de temps pour évoquer la provenance de cette étude publiée par le Future of Humanity Institute de l'université d'Oxford. Près d'un tiers des coauteurs sont d'ailleurs rattachés à cette dernière, quatre autres viennent du Centre pour l'étude des risques existentiels et trois de l'association OpenAI.

À elles trois, ces institutions ayant un but assez proche rassemblent donc plus de la moitié des signataires du rapport. Le premier est en effet un institut de recherche interdisciplinaire essayant de répondre aux questions d'ordre général sur l'humanité et son avenir (un vaste sujet), quand le second se penche sur les risques et les menaces liés à la technologie et que le troisième veut une IA bénéfique pour l'humanité.

À la fin du rapport, il est également indiqué que « ce travail a été soutenu en partie par une subvention du Future of Life Institute ». Cette association, basée dans la région de Boston, s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Stephen Hawking et Elon Musk sont parmi les membres fondateurs, deux personnalités connues pour leurs positions bien tranchées sur les risques liés à l'intelligence artificielle.

En février de l'année dernière, le Future of Life Institute organisait d'ailleurs une grande rencontre baptisée Beneficial AI. Il en était ressorti une liste des « 23 principes d'Asilomar » (voir notre analyse) sur les craintes autour du développement de l'intelligence artificielle, signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Bref, bon nombre des intervenants ont une vision assez pessimiste du potentiel de l'intelligence artificielle, ce qui se ressent dans le rapport, même s'il essaye de ne pas être trop anxiogène.

Cette étude se penche en effet surtout sur les risques de l'IA, laissant de côté son potentiel et ses avantages. Elle n'en reste pas moins intéressante dans le sens où elle se focalise sur du court terme (les cinq prochaines années au maximum), en essayant de ne pas pousser le bouchon trop loin.

L'intelligence artificielle, une force à double tranchant

Depuis quelques années, l'intelligence artificielle et l'apprentissage automatique reviennent en force sur le devant de la scène, notamment grâce aux puissances de calculs dont on dispose désormais pour un coût réduit et à la quantité de données accessibles pour les entrainer.

Si les futures possibilités de l'IA sont régulièrement mises en avant, parfois sous forme fantasmée, c'est plus rarement le cas des plausibles détournements malveillants des algorithmes, du moins selon les chercheurs. Il ne s'agit pas cette fois d'anticiper l'arrivée d'une IA forte (avec une conscience) souhaitant détruire l'humanité, ou de robots tueurs comme dans la dernière saison de Black Mirror, mais de se concentrer « sur les types d'attaques que nous sommes susceptibles de voir bientôt arriver si des défenses adéquates ne sont pas développées ».

Sur le côté obscur du développement de l'IA, les 26 chercheurs anticipent trois axes de développement : une expansion des menaces existantes, l'arrivée de nouveaux risques et une modification du paysage actuel. « Nous croyons qu'il y a des raisons de s'attendre à ce que les attaques permises par l'utilisation croissante de l'IA soient particulièrement efficaces, ciblées, difficiles à attribuer et susceptibles d'exploiter les vulnérabilités des systèmes IA » ajoutent-ils.

Problème, toujours selon l'étude, à l'instar d'un maitre Jedi enseignant la force à un apprenti, un chercheur ne peut deviner à l'avance si ses travaux serviront ou non à renforcer le côté obscur de la force (c'est-à-dire des cyberattaques). Quelques exemples de détournements parmi d'autres : des logiciels de détection (et d'exploitation) de failles, les drones autonomes, les bots de communication, etc.

Quand l'IA dépasse les humains...

Dans certaines situations, l'intelligence artificielle dépasse déjà l'humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même. Les chercheurs ajoutent qu'il « ne semble y avoir aucune raison valable de penser que les performances humaines actuellement observées sont le plus haut niveau possible, même dans les domaines où les performances maximales ont été stables tout au long de l'histoire récente ». Bref, rien n'est perdu pour l'IA dans tous les domaines où l'Homme occupe pour le moment la première place.

Autre « avantage » des systèmes d'intelligence artificielle : ils « peuvent augmenter l'anonymat et la distance psychologique [...] Par exemple, quelqu'un qui utilise un système d'armes autonome pour effectuer un assassinat, plutôt que d'utiliser une arme de poing, évite à la fois la nécessité d'être présent sur les lieux et le besoin de regarder sa victime ». 

Enfin, les travaux de recherche sur l'intelligence artificielle sont souvent librement accessibles à la communauté, facilitant ainsi leur récupération discrète par des personnes malveillantes. Dans le même temps, le coût des systèmes informatiques pour les exploiter baisse grandement au fil des années, permettant donc d'en profiter toujours plus facilement pour des petites organisations ou des particuliers.

Intelligence artificielle
Crédits : t.light/iStock

... et peut même prendre sa parole

Un autre vecteur d'attaque possible grâce à l'intelligence artificielle est l'usurpation de l'identité vocale. « Par exemple, la plupart des gens ne sont pas capables d'imiter les voix des autres de façon réaliste ou de créer manuellement des fichiers audio qui ressemblent à des enregistrements de discours humain ». Nous ne parlons pas ici des sociétés avec d'importants moyens, mais bien d'un internaute lambda ou presque. 

Or, les études et les publications se multiplient sur ce point, avec des systèmes (déjà commercialisés) capables d'imiter les humains à partir d'une source audio. Dans la guerre de l'information, ce genre d'outils peut faire des ravages entre de mauvaises mains, permettant de faire dire n'importe quoi à une personne.

On peut également imaginer de faux articles de presse et autres déclarations écrites/vocales reprenant le ton et la présentation des originaux, le tout diffusé sur les réseaux sociaux par exemple. 

Numérique, physique, politique : trois domaines à risques dans le futur

L'étude se hasarde à quelques prévisions pratiques. Les chercheurs expliquent qu'ils se basent sur l'état actuel de développement de l'intelligence artificielle, ou sur ce qu'ils estiment possible à court terme (5 ans) afin d'éviter d'entrer dans des suppositions trop hasardeuses.

Ils précisent que certains scénarios se « produisent déjà sous forme limitée aujourd'hui », mais qu'ils pourront être largement renforcés à l'avenir. De plus, de nouveaux vecteurs d'attaques auxquels on n'a pas encore pensé seront également mis sur pied. Il ne s'agit donc ici que d'exemples dans les mondes numérique, physique et politique (nous y reviendrons), pas d'une étude sur l'ensemble des risques possibles et imaginables.

Dans le cas du monde numérique, les chercheurs évoquent un phishing très élaboré et parfaitement ciblé en fonction des centres d'intérêt et de la position géographique d'une personne, afin de l'envoyer sur une page dédiée pour la piéger le plus discrètement possible. Une intelligence artificielle peut également traduire dans de nombreuses langues les emails destinés à hameçonner les internautes, facilitant le travail des pirates.

Si le résultat n'est pas encore parfait aujourd'hui (il est souvent très facile d'identifier les tentatives de phishing), il s'améliore grandement au fil des années et cela ne devrait pas se calmer. Est aussi évoqué le cas d'un malware extrêmement virulent cherchant à infecter un maximum de machines à l'aide d'une base de données de vulnérabilités régulièrement et automatiquement mise à jour. 

Dans le cas des risques dans le monde physique, l'étude met en avant le cas d'un robot ménager détourné de ses fonctions pour identifier et tenter de tuer une personne. Placé dans le parking souterrain d'un ministère, il attend le passage d'autres robots de la même marque pour se mélanger discrètement à la cohorte. 

Une fois fondu dans la masse, il réalise les mêmes tâches que ses petits camarades jusqu'au moment où la « cible » (un ministre dans le cas présent) est identifiée via un logiciel de reconnaissance visuelle, des solutions facilement accessibles sur Internet. Le robot s'approche alors de la personne et explose pour tenter de la tuer.

Des fake news aux algorithmes prédictifs

Dans le monde de la politique, les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l'intelligence artificielle, mais ce n'est pas le seul risque. Voici un autre exemple : une personne lassée d'entendre parler de cyberattaques, de drones et de corruptions dans le monde consulte des articles sur Internet, certains étant des fake news abondant dans son sens. Elle laisse des commentaires sur différents sites pour faire-part de son mécontentement et lance un appel public à la protestation.

Elle passe quelques commandes sur Internet, dont des fumigènes pour terminer avec « panache » son discours. Le lendemain, à son travail, la police arrive : « notre système prédictif de perturbation civile vous a signalé comme une menace potentielle ». « C'est ridicule, proteste la personne. Vous ne pouvez pas discuter avec 99,9 % de précision, surenchérissent les forces de l'ordre. Maintenant, venez, je ne voudrais pas utiliser la force ».

Un Précrime sans précogs, mais avec des algorithmes.

ia cerveau machine learning
Crédits : Henrik5000/iStock

Et ce n'est que le début...

Il ne s'agit ici que de quelques exemples anticipant ce que l'intelligence artificielle pourrait devenir si elle continue à se développer de cette manière. Bien évidemment, rien ne dit que cela arrivera sous cette forme, mais c'est une possibilité.

« Si ces tendances se poursuivent au cours des cinq prochaines années, nous nous attendons à ce que la capacité des attaquants à causer des dommages avec les systèmes numériques et robotiques augmente considérablement », note le rapport. Il faut également ajouter « de nouveaux développements, y compris des technologiques sans lien avec l'IA, qui pourraient finalement avoir plus d'impact que les capacités considérées dans ce rapport ».

Dans tous les cas, ce rapport veut « sensibiliser le public aux enjeux et à leur importance, et établir un premier programme de recherche » (nous y reviendrons). Les étapes suivantes nécessiteront « un engagement de la part de personnes et d'organisations ayant une expertise pertinente. Des ressources monétaires supplémentaires, publiques et privées, contribueraient également à susciter l'intérêt et à attirer l'attention des communautés de recherche concernées ».

Néanmoins, « toute prévision fiable à long terme est impossible à faire, car des incertitudes importantes demeurent concernant les progrès des diverses technologies, les stratégies adoptées par les acteurs malveillants et les mesures qui devraient et seront prises par les principales parties prenantes ».

Rappelons enfin que bon nombre des coauteurs et la Fondation of Life Institute ayant participé au financement de cette étude sont plutôt inquiets vis-à-vis du développement de l'intelligence artificielle. Leur position n'est donc pas surprenante, mais elle reste intéressante à analyser puisqu'elle soulève un débat.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Encore un bilan sur les risques de l'intelligence artificielle

Une évaluation des craintes pour les prochaines années

Une étude soutenue financièrement par le Future of Life Institute

L'intelligence artificielle, une force à double tranchant

Quand l'IA dépasse les humains...

... et peut même prendre sa parole

Numérique, physique, politique : trois domaines à risques dans le futur

Des fake news aux algorithmes prédictifs

Et ce n'est que le début...

Fermer

Commentaires (65)


“FAKE NEWS”



Maintenant dès que je lis ça, j’entends tous les hosts des Talk Shows ricains qui font leurs imitations de Trump (Fallon, Trevor Noah, etc)…<img data-src=" />





Bon maintenant je vais lire ce bel article qui m’a l’air fort intéressant <img data-src=" />


L’IA c’est beaucoup de “hype” pour l’instant. Les réalisations sont basées sur les découvertes en physiologie animale (rétine) faites dans les années 70, et on n’a pas beaucoup progressé depuis.



Même les “progrès” récents en auto-apprentissage, bien que médiatiques, n’ont pas grand chose à voir avec le monde réel.



Alors de là à prédire la fin de l’humanité, il y a loin. Et puis par soucis d’objectivité, on aimerait une analyse propective sur les avantages attendus histoire de pouvoir comparer et juger.



Bref, autant relire Fondation d’Asimov.


Autre conseil de lecture sur le sujet: Le Mythe de la Singularité


Il faut ici plutôt parler d’apprentissage automatique (machine learning) plus que d’IA. Je ne suis pas un grand fan de base du terme IA, car elle possède de multiple définition et le simple terme “intelligence” pose problème.

L’apprentissage automatique est un concepts qui permet à une machine de s’adapter par elle même pour effectuer une tache en fonction des donnée d’apprentissage. En gros, tu donnes à une machine des exemples, elles en tire une forme d’expérience qu’elle utilise pour effectuer une tache.

C’est là toute la force et la dangerosité du concept, la machine est capable de s’adapter et de créer des comportement proche du chaos, très difficile à prédire. Ca fonctionne, on ne sais pas trop comment.

Il faut savoir que dans le cadre de réseau de neurone artificiels et du deep learning, normalement la phase d’aprentissage est une phase bien particulière où l’on applique des algos pour régler tous les paramètre (les poids et les biais) de notre réseau de neurone pour qu’il effectue la tâche désiré. Une fois que l’on est satisfait du résultat, on bloque les paramètre et le réseau de neurone peut être vu comme une bête fonction f(x). Cependant dernièrement, j’ai vu que grace à une long-short-term-memory network (un type de réseau de neurone artificiel qui possède un mécanisme de mémoire proche d’un registre) on avait réussi à avoir un outil capable de lui même apprendre à apprendre. On a fait un pas de plus vers l’auto adaptation et donc un comportement encore moins prédictible.








tmtisfree a écrit :



L’IA c’est beaucoup de “hype” pour l’instant. Les réalisations sont basées sur les découvertes en physiologie animale (rétine) faites dans les années 70, et on n’a pas beaucoup progressé depuis.



Même les “progrès” récents en auto-apprentissage, bien que médiatiques, n’ont pas grand chose à voir avec le monde réel.



Alors de là à prédire la fin de l’humanité, il y a loin. Et puis par soucis d’objectivité, on aimerait une analyse propective sur les avantages attendus histoire de pouvoir comparer et juger.



Bref, autant relire Fondation d’Asimov.







Asimov <img data-src=" />







iston a écrit :



Autre conseil de lecture sur le sujet: Le Mythe de la Singularité







très bon oui.



C’est le syndrome Skynet, le jour où les machines prendrons le contrôle. Le corpus documentaire sur les dérives de l’IA existe depuis plus d’un siècle si on compte la SF, il faut en prendre connaissance pour ne pas se faire couillonner. Après, il faut quand même mesurer tout ça et voir comment sa tourne et comment on le contrôlera. Je ne vois pas le monde finir comme dans Terminator, plus comme dans Wall-e…



Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?

Réponse: Quand ca permet de faire le buzz dans les médias.





La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.


Merci pour la référence, je vais l’ajouter à ma liste de lectures.








iston a écrit :



Autre conseil de lecture sur le sujet: Le Mythe de la Singularité







Merci pour le conseil.



La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir.



Néanmoins, l’objet de l’étude présentée ici mérite réflexion. À suivre.



C’est mal barré pour les salons de coiffure, toutes les IA qu’on voit sont chauves et ça va sûrement lancer une mode chez les humains… <img data-src=" /> <img data-src=" />








127.0.0.1 a écrit :



Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?

Réponse: Quand ca permet de faire le buzz dans les médias.





Algorithme et intelligence artificielle, tu emploies deux mots-clefs à la mode, donc forcément ça buzze.



&nbsp;





127.0.0.1 a écrit :



La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.





… et traitement informatique à la place d’algorithme.

&nbsp;





iston a écrit :



Autre conseil de lecture sur le sujet: Le Mythe de la Singularité



Ah, ces mythes qui nous abusent !

Une intelligence artificielle serait-elle en mesure de découvrir le sens caché de la phrase juste au dessus ?&nbsp;<img data-src=" />









boogieplayer a écrit :



Le corpus documentaire sur les dérives de l’IA existe depuis plus d’un siècle si on compte la SF, il faut en prendre connaissance pour ne pas se faire couillonner.





2 siècles tout juste cette année pour la bête de Frankenstein. <img data-src=" />









Commentaire_supprime a écrit :



Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir. Néanmoins, l’objet de l’étude présentée ici mérite réflexion. À suivre.





La singularité arrivera le jours ou il sera possible d’avoir un pc aussi puissant et rapide qu’un cerveau humain.

&nbsp;





heret a écrit :



Algorithme et intelligence artificielle, tu emploies deux mots-clefs à la mode, donc forcément ça buzze.

&nbsp; … et traitement informatique à la place d’algorithme.&nbsp;





D’un côté c’est comme ça que nous fonctionnons aussi non ?



“Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir”Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?


C’est pour ça que je préfère généralement utiliser le terme d’apprentissage automatique/machine learning. Au moins ce dernier a un sens.

La principale source du danger de ces algorithmes, c’est qu’ils sont capables d’un traitement automatique d’une quantité importante de donnée, de réaliser des traitement de plus en plus complexe et derrière de produire quelque chose qui arrive à tromper facilement un humain quant-à son origine.



Après, les machines sont déjà au commande du monde moderne. La bourse, c’est 90 % des ordres et 40 % du volume des transactions géré par des bot-trader (trading à haute fréquence). Mais il reste un humain au commande de ses machines et ce n’est pas une situation qui est prêt de changer.








nikogaug a écrit :



Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?





C’est un peu le but de certains types de réseaux de neurones, faire des aller retour entre les couches pour optimiser le fonctionnement et il est clair qu’un humain n’y comprendra pas grand choses. Concernant la singularité j’en sais rien tout dépend de la définition.









tazvld a écrit :



Mais il reste un humain au commande de ses machines et ce n’est pas une situation qui est prêt de changer.





Sauf que l’humain ne sert pas à grand chose vu la vitesse des traitements…









nikogaug a écrit :



Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?







Non, il n’y a pas de singularité car le programme a fait ce qu’on lui demandait de faire, ni plus ni moins. Le fait que le résultat ne soit pas “compréhensible” par les développeurs n’est pas une preuve d’intelligence de la machine.



Ce qu’on appelle actuellement IA se résume au “machine learning”, c’est à dire l’élaboration de modèles numériques basés sur une étude statistique. Et dés qu’on manipule des modèles statistiques - surtout sur des gros volumes - on tombe vite sur des résultats “contre-intuitifs” pour les humains (exemple simple: le “birthday paradox”).



Dans ces cas là, la supposée supériorité de l’intelligence artificielle n’est en fait que l’absence totale de préjugé (intuition) des ordinateurs qui ne “doutent” pas du résultat obtenu. Pour moi, on aura une singularité le jour un ordinateur sera capable de douter.











skankhunt42 a écrit :



La singularité arrivera le jours ou il sera possible d’avoir un pc aussi puissant et rapide qu’un cerveau humain.





Et c’est quoi la puissance et la rapidité d’un cerveau humain ? Comment tu la calcule, sur quel base ?

Une machine, ça fait plusieurs siècle qu’elle te bas à plat de couture en calcule et terme de vitesse et de complexité.

Cette définition de la singularité est pas forcément bonne.









nikogaug a écrit :



“Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir”Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?





Il existe même des modèles qui ont appris à traduire (très grossièrement) 2 langages sans avoir de “pierre de rosette”, cad de document liant les 2 langages, ils les créent d’eux même (en cherchant des similarité).



Pour faire simple, c’est surtout des math, les personnes qui l’utilisent savent ce qu’ils font. La question du “sens” du langage intermédiaire n’est pas vraiment un problème, c’est juste un produit des mathématiques. Mais il peut être effectivement intéressant de l’étudier pour peut être mieux comprendre ce que la machine extrait comme informations et même d’un point de vu purement linguistique, qu’elles sont les structures important d’un langage.



Pour travailler sur des mots, il faut convertir les mots en une valeurs ou plutôt un ensemble de valeur qui peut être utiliser (ici dans le cadre de réseau de neurone). Parmis les outils, il en existe un qui permet en quelque sorte de convertir un mots en une description de son contexte selon un ensemble de “feature”. Des ingénieurs de google ont ainsi proposé un outil, word2vec, qui permet (selon l’algo utilisé dans leur article) de décrire un mot selon 300 “features” (300 valeurs numériques). Derrière, ce n’est que des “simples” mathématiques, on s’en fout du sens de ces features. On ne peut même pas forcément donner un sens à ces feature.

Mais derrière, il apparait des phénomènes amusant avec ces vecteurs de 300 valeurs. Par exemple 2 mots ayant des sens proches vont posséder des vecteurs similaire. On peut appliquer même des math avec ainsi si l’on cherche X est au roi ce que la femme et à l’homme, il suffit de faire ce calcule X= roi+(homme-femme) et on trouve que X≈reine.



bun je connais 2-3 gus qui sont largement moins puissant et rapide que certains PC <img data-src=" />








127.0.0.1 a écrit :



Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?

Réponse: Quand ca permet de faire le buzz dans les médias.





La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.





Mettre n’importe quoi à la place d’IA-AI et tu auras le même résultat qu’avec programmation au buzzomètre.



Néanmoins ça change régulièrement, y a quelques mois c’était blockchain.



De là à penser que le monde de l’informatique (et plus largement) que nous aimions est parasité depuis des années par les commerciaux et les conseillés en com., il n’y a qu’un pas que je franchis allégrement.



Non il ne fait pas ce qu’on lui demande de faire. Il fait ce qui lui parait le plus efficace sans qu’on lui ai demandé de le faire. C’est pas la même chose.








nikogaug a écrit :



Non il ne fait pas ce qu’on lui demande de faire. Il fait ce qui lui parait le plus efficace sans qu’on lui ai demandé de le faire. C’est pas la même chose.






 Je n'aime pas cette formulation, dire "ce qui lui parait le plus efficace" donne l'impression que la machine est capable de jugement de valeurs.      






Si j'ai bien compris, n'ayant pas la prétention d'être spécialiste en ce domaine, il faut pour que apprentissage fonctionne, donner les objectifs à la machine voire créer "des récompenses".      






On ne peut pas prétendre que la machine aime gagner au jeu de dames, on lui a nécessairement indiqué que l'objectif était de bouffer les pions de l'adversaire, à charge pour elle de trouver comme le faire en analysant les règles, des parties etc...      






Fondamentalement la machine n'est pas contente d'avoir gagné, "au mieux" elle trouve elle-même comment remplir l'objectif qu'on lui a fixé au regard de règles elles-mêmes fixées par l'humain (en schématisant, tu jumpes le pion c'est bon, tu le jumpes pas c'est pas bon recommences).








Z-os a écrit :



2 siècles tout juste cette année pour la bête de Frankenstein. <img data-src=" />







alors si on inclus le fantastique <img data-src=" />





Quand l’IA dépasse les humains…

Dans certaines situations, l’intelligence artificielle dépasse déjà l’humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même





je ne connais pas le jeu de go.

Mais pour les échecs, ce n’est pas de l’IA pour moi. C’est une base de données et des maths.


Ce qu’on demandait aux deux IA c’était de rendre leur conversation indéchiffrable pour une 3ème IA (projet Google Brain). C’est pour cela que ces IA ont été conçues, développées, et entrainées.



Le résultat c’est que les deux IA ont effectivement réussi à rendre leur conversation indéchiffrable pour la 3ème IA.



Le résultat est admirable en soi, mais ces IA ont juste fait ce qu’on leur demandait.



« Learning to protect communications with adversarial neural cryptography »

Google Brain, 24 oct. 2016








boogieplayer a écrit :



alors si on inclus le fantastique <img data-src=" />





Tu peux aller jusqu’à Homère (pas le truc jaune, le gus qui s’est payer une croisière sur la méditerranée) qui croise des automates-robots, en passant par Aristote qui voit comment le monde sera changé par les machines.



L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.


Ce n’est nullement un haussement d’épaule blasé mais plutôt le sentiment qu’on se focalise sur l’arbre qui cache la forêt.



Si les IA sont aussi “miraculeuses” ce n’est pas a cause d’avancée majeures dans le domaine mathématico-biologico-informatique. C’est principalement à cause de la puissance de calcul et du volume de données disponibles qui permettent tous les apprentissages possibles… et toutes les prévisions probabilistes qui en découlent.


Gothique plutôt à l’époque. Tu parlais de plus d’un siècle. Et Frankenstein est plutôt l’œuvre qui ouvre la période du merveilleux scientifique en attendant environ 1930 pour la science fiction je dirais (Huxley et son meilleur des mondes).








le podoclaste a écrit :



L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.







Effectivement.



Il y a des potentialités, mais il me semble qu’on ne peut pas encore, à l’heure actuelle, prévoir sur quoi elles vont déboucher, et encore moins quand. Mais elles existent, et je ne doute pas que tout ou partie d’entre elles vont avoir à terme des applications pratiques.









tazvld a écrit :



Et c’est quoi la puissance et la rapidité d’un cerveau humain ? Comment tu la calcule, sur quel base ?

Une machine, ça fait plusieurs siècle qu’elle te bas à plat de couture en calcule et terme de vitesse et de complexité. Cette définition de la singularité est pas forcément bonne.





Il y à différente interprétation de la singularité et je répondais à celle ou ça sera une machine aussi intelligente que nous et qui le sera bien plus en une fraction de seconde. Effectivement les machines nous battent sur certains domaines mais la plupart du temps c’est parce que notre cerveau est limité la ou les machines ne le sont pas vraiment.



Difficile pour un humain de traiter un large volume de données&nbsp; et d’enchainer des calculs complexes sans erreur mais ce ne ce sont que des algorithme mathématique à la con. Il faut toujours un mec pour entrer les données, la machine ne va pas les chercher toute seules, il faut les formater correctement puis écrire un code pour les traiter.



Par contre pour ce qui est de la reconnaissance visuelle ont est toujours pas capable d’avoir une représentation 3d d’un objet de manière précise alors qu’un designer avec seulement quelques photos pourra refaire l’objet en 3d les doigts dans le nez.









le podoclaste a écrit :



L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.





Il n’y a pas que buzzwords ou le traitement d’une certaine presse qui agace.



Ce sujet est constamment mis en avant notamment dans le monde du travail:

. la “presse” économique en fait son nouvel eldorado,

. le MEDEF qui semble se réjouir des perspectives offertes, en faisant des colloques sur comment remplacer l’humain dans les entreprises (et oui ils en sont là),

. le tout accompagné du discours de nos politiques “startupnation” qui annoncent avec un sourire de figue éclatée qu’on va tout miser sur l’IA parce qu’on l’a pas fait s’agissant de l’automatisation dans les années 90 et que du coup on a plus de chômeurs que les autres (finalement ils se seraient plantés, le Code du travail y était pour rien…).



Donc je suis pas certain que 127.0.0.1 soit blasé, mais plutôt qu’il est exaspéré par un discours totalement hors réalité (et peut-être aussi préoccupé que les questions importantes sur l’IA soient éludées, au profit d’une dévotion béate du dieu IA).



Oui elle est capable d’un jugement de valeur. Pas au sens moral, au sens mathématique. Un GPS est capable de trouver le chemin qu’il juge plus efficace. Plus rapide quoi. Ca veut juste dire temps.chemin1&lt;temps.chemin2


Pour les blasés / exaspérés de l’IA : si ça peut vous rassurer, le deep learning et le machine learning sont tout en haut de la courbe de hype :

&nbsp;

https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-…



Donc normalement ça devrait commencer à désenfler dans un ou deux ans…



(ce qui ne veut pas dire que ça disparaîtra : juste qu’on aura compris les domaines d’application et qu’on parlera moins de Terminator)



&nbsp;

&nbsp;


perso j’y vois un vrai parallèle avec la révolution CRISPR/Cas9 en bio.

C’est toujours pareil : aucune remise en contexte, et une absence totale de l’état de l’art qui pourrait renseigner un minima sur la réalité du progrès.

On insiste juste soit sur le côté peur (en plus on est +/- en plein sur les générations qui ont grandi avec les films SF, donc ça permet de s’appuyer sur un truc +/- tangible) soit sur le côté argent/emploi (mais pas dans le bon sens : on insiste bien sur le côté destruction d’emploi). Et évidemment on ne met que très rarement en balance les aspects positifs.





Bref c’est des véritables cas d’école d’absence complète de culture scientifique au niveau des médias qui traitent de ces sujets, auquel on ajoute la course au buzz pour vendre de la pub et c’est pas le meilleur des mélanges <img data-src=" />









crocodudule a écrit :



Tu peux aller jusqu’à Homère (pas le truc jaune, le gus qui s’est payer une croisière sur la méditerranée) qui croise des automates-robots, en passant par Aristote qui voit comment le monde sera changé par les machines.







Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />







Z-os a écrit :



Gothique plutôt à l’époque. Tu parlais de plus d’un siècle. Et Frankenstein est plutôt l’œuvre qui ouvre la période du merveilleux scientifique en attendant environ 1930 pour la science fiction je dirais (Huxley et son meilleur des mondes).







Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.



Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />









boogieplayer a écrit :



Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />







C’est Platon celui-là, et le concept est de Socrate, il ne fait que le reprendre.





Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.



Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />





+1. Grosso-modo, on peut considérer que la proto-SF a commencé à exister vers le début de la révolution industrielle, soit aux alentours de 1850, et que la SF à proprement parler a commencé au début des années 1920. Mais c’est arbitraire et discutable.



J’avoue que j’ai un biais car j’ai une tendresse particulière pour Maurice Renard (problablement due à la période pendant laquelle j’ainlu ses livres) qui est l’initiateur du terme merveilleux scientifique.








Commentaire_supprime a écrit :



C’est Platon celui-là, et le concept est de Socrate, il ne fait que le reprendre.







je crois qu’il avait publié en Creative Common s CC-0 <img data-src=" />







Commentaire_supprime a écrit :



+1. Grosso-modo, on peut considérer que la proto-SF a commencé à exister vers le début de la révolution industrielle, soit aux alentours de 1850, et que la SF à proprement parler a commencé au début des années 1920. Mais c’est arbitraire et discutable.







On pourrait presque dire que la SF à toujours existé, à toute époque, ce n’est qu’un genre littéraire qui extrapole l’état de la science à une époque donnée dans laquelle se trouve l’auteur de l’écrit. C’est même un “angle de vue”, Jésus marchant sur l’eau c’est de la SF ou du mystique, ce n’est qu’une façon de décrire la chose.









crocodudule a écrit :



Donc je suis pas certain que 127.0.0.1 soit blasé, mais plutôt qu’il est exaspéré par un discours totalement hors réalité (et peut-être aussi préoccupé que les questions importantes sur l’IA soient éludées, au profit d’une dévotion béate du dieu IA).







Tout a fait. Pour moi, le danger dans l’immédiat ce n’est pas émergence d’une singularité qui voudra dominer l’humanité. C’est plutôt l’acceptation par l’humanité de se soumettre aux décisions de la machine.





  • Google a dit: prends ton parapluie.

  • Meetic a dit: rencontre cette personne.

  • Facebook a dit: lis cette news.

  • Medefotron a dit: licencie cet employé










Z-os a écrit :



J’avoue que j’ai un biais car j’ai une tendresse particulière pour Maurice Renard (problablement due à la période pendant laquelle j’ainlu ses livres) qui est l’initiateur du terme merveilleux scientifique.







ah oui c’est bien aussi Maurice Renard, j’avoue n’avoir lu qu’un ou deux livres de lui. Mon adolescence fut nourrie à la mamelle de la SF américaine surtout, ce qui déforme aussi mon analyse dans mon cas.



Je trouve que le terme d’intelligence est utilisé abusivement d’autant qu’on a pas encore vraiment défini ce que c’est que l’intelligence au sens universel du terme.

Il vaudrait mieux parler “d’humains artificiels” puisque ces trucs sont conçus par des humains…



J’ai écouté récemment une émission avec des gens qui étudient le comportement des fourmis et malgré une étude approfondie de ces animaux ils n’ont toujours pas réussi à tout comprendre, notamment dans l’aptitude qu’ils ont à s’adapter quasiment instantanément à tout changement de situation.



Par exemple, chez les fourmis qui se déplacent en groupe il n’y a jamais de “bouchon” et chaque fois que les chercheurs qui les étudient essaient de leur dresser des obstacles elles s’adaptent immédiatement sans pratiquement aucun ralentissement dans leur cheminement et tout ça malgré un cerveau minuscule… <img data-src=" />



Alors que quelques centimètres de neige sur les routes en plein hiver (donc pas vraiment une surprise) peuvent bloquer complètement des centaines d’humains et foutre un sacré bordel… <img data-src=" />

Bien sûr cela s’explique en partie par le comportement très individuel des humains que bien sûr ne connaissent pas les fourmis. Le revers de la médaille de l’évolution en quelque sorte.



Tout ça pour dire qu’avant de vouloir inventer de “l’intelligence” il serait bien de comprendre ce que c’est réellement et surtout arrêter de croire que notre espèce est la seule à en posséder.



Comme disait un certain Descartes, “Aussi peu qu’il le soit, l’humain juge toujours être assez intelligent vu que c’est avec ça qu’il juge”….

Ce n’est pas une citation au mot près mais l’idée est bien là. <img data-src=" />


Bref, tout ce beau monde battu à plate de couture par Cyrano de Bergerac (le vrai)








nikogaug a écrit :



Oui elle est capable d’un jugement de valeur. Pas au sens moral, au sens mathématique. Un GPS est capable de trouver le chemin qu’il juge plus efficace. Plus rapide quoi. Ca veut juste dire temps.chemin1&lt;temps.chemin2





Il fait pas un jugement de valeur, on lui a dit que dans tous les résultats qu’il calcule, il doit sélectionner le plus rapide ou le plus court. Il exécute, il se dit pas tien c’est cool j’ai gagné 10min.



Où alors ma casio collège fait des jugements de valeurs parce qu’elle sait que 9 &gt; 3 …









boogieplayer a écrit :



Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />







Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.



Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />





Sauf erreur c’est un autre bonhomme tout nu en toge, mais s’ils s’étaient connus ils auraient été super-potes je pense!



On dit la même chose. Juger une valeur (au sens mathématique) c’est savoir ou elle ce situe par rapport aux autres. 1&lt;2&lt;3…

Dans ce que l’on disait tout à l’heure, les bots ont utilisé un autre langage qu’ils ne connaissaient pas et que personne ne connaissait de façon à gagner du temps grâce au xxx-learning.&nbsp;








127.0.0.1 a écrit :



Tout a fait. Pour moi, le danger dans l’immédiat ce n’est pas émergence d’une singularité qui voudra dominer l’humanité. C’est plutôt l’acceptation par l’humanité de se soumettre aux décisions de la machine.





  • Google a dit: prends ton parapluie.

  • Meetic a dit: rencontre cette personne.

  • Facebook a dit: lis cette news.

  • Medefotron a dit: licencie cet employé









  • L’OCDE a dit: Il y a du fric à faire avec l’IA, on emmerde ce rapport OSEF.









crocodudule a écrit :



Je n’aime pas cette formulation, dire “ce qui lui parait le plus efficace” donne l’impression que la machine est capable de jugement de valeurs.




Si j'ai bien compris, n'ayant pas la prétention d'être spécialiste en ce domaine, il faut pour que apprentissage fonctionne, donner les objectifs à la machine voire créer "des récompenses".      






On ne peut pas prétendre que la machine aime gagner au jeu de dames, on lui a nécessairement indiqué que l'objectif était de bouffer les pions de l'adversaire, à charge pour elle de trouver comme le faire en analysant les règles, des parties etc...      






Fondamentalement la machine n'est pas contente d'avoir gagné, "au mieux" elle trouve elle-même comment remplir l'objectif qu'on lui a fixé au regard de règles elles-mêmes fixées par l'humain (en schématisant, tu jumpes le pion c'est bon, tu le jumpes pas c'est pas bon recommences).









C’est à peu prêt ça. Soit tu as des exemples avec leur résultat espéré à donner à manger à ta machine pour qu’elle apprennent de ces exemples (apprentissage supervisé), soit tu as des situations, la machine va tester des solutions et tu la “récompense” (tu renforce ce comportement) si cette solution donne de bon résultat ou à l’inverse tu lui tape sur les doigts si ça ne donne pas de bon résultat (apprentissage par renforcement). Mais tu as aussi la possibilité d’avoir des données que tu souhaites trier, mais tu ne sais pas comment, tu donnes ça à la machine et tu lui dit “démerdes toi, te voici des données, tu me les tries dans ces caisses” (apprentissage non supervisé). Après, il existe quelques variantes.



Après “ce qui lui parait le plus efficace” n’est pas totalement faux. En effet, le but de l’algo est souvent d’optimiser un score. Par exemple, dans le cas d’un apprentissage supervisé, on va chercher à réduire l’écart entre ce que la machine sort et ce que l’on souhaiterait qu’elle sorte. Ce jugement de valeur est ce score. Pour une machine qui apprend à jouer au dame, on va faire en sorte par exemple que son taux de victoire soit le plus élevé.







jeje07bis a écrit :



je ne connais pas le jeu de go.

Mais pour les échecs, ce n’est pas de l’IA pour moi. C’est une base de données et des maths.







C’est tout le problème de la définition d’IA. Dans la même ligné, un réseau de neurones artificiels, c’est que des calcules matriciels et des math, de la proba… Mais d’un autre coté, un cerveau, c’est que des cellules qui ne sont régie que par des réactions physico-chimiques. Il n’y a aucune intelligence dans la dépolarisation de la membrane.







skankhunt42 a écrit :



Il y à différente interprétation de la singularité et je répondais à celle ou ça sera une machine aussi intelligente que nous et qui le sera bien plus en une fraction de seconde. Effectivement les machines nous battent sur certains domaines mais la plupart du temps c’est parce que notre cerveau est limité la ou les machines ne le sont pas vraiment.



Difficile pour un humain de traiter un large volume de données  et d’enchainer des calculs complexes sans erreur mais ce ne ce sont que des algorithme mathématique à la con. Il faut toujours un mec pour entrer les données, la machine ne va pas les chercher toute seules, il faut les formater correctement puis écrire un code pour les traiter.



Par contre pour ce qui est de la reconnaissance visuelle ont est toujours pas capable d’avoir une représentation 3d d’un objet de manière précise alors qu’un designer avec seulement quelques photos pourra refaire l’objet en 3d les doigts dans le nez.







La singularité est un événement qui n’existe pas selon moi. Tout d’abord, c’est qu’elle n’a aucune définition qui permet de réellement créer une frontière net. Ensuite, et simplement, dans le cadre de la comparaison avec “l’intelligence humaine” quelque soit sa définition, on compare 2 choses totalement différents. A coté, la question “C’est qui le plus fort, l’hippopotame ou l’éléphant?” (cité de la peur) me parait presque pertinente.







odoc a écrit :



perso j’y vois un vrai parallèle avec la révolution CRISPR/Cas9 en bio.

C’est toujours pareil : aucune remise en contexte, et une absence totale de l’état de l’art qui pourrait renseigner un minima sur la réalité du progrès.





Alors, ça pourrait être pas mal d’expliquer le contexte de CRISPR/Cas9.

En soit, on s’en fout de CRISPR dans le cas présent, ce sont des régions dans l’ADN des bactéries et des archées qui possède une architecture bien particulière et qui fait partie d’un mécanisme dans leur système immunitaire (contre les bactériophages/virus). Mais ce qui est intéressant, c’est Cas9 qui fait aussi partie de ce mécanisme du système immunitaire. Cette protéine a pour propriété de pouvoir couper l’ADN, mais surtout elle est capable de cibler un endroit précis et ceux car elle est est associé à un brin d’ARN guide qui reconnait sa cible par complémentarité de séquence.

Il est très simple de générer des ARN guide, du coup il est possible d’utiliser Cas9 pour couper n’importe quelle ADN à une position précise. Cette propriété permet ainsi d’édité in vivo l’ADN avec une grande précision. Pour ainsi dire, Cas9 ouvre les portes de la thérapie génique. On peut enfin imaginer pouvoir soigner des personnes soufrant d’une maladie génétique. (j’imagine qu’il y a dû avoir des idées pour inséré un gène de suicide dans des cellules cancéreuses)



En fait j’ai déjà expliqué ce contexte dans un autre article, d’où la non redite ;) (je connais assez bien le système pour ma part <img data-src=" />).



Comme je l’expliquais, non on est très très loin de la thérapie génique : y a une barrière immense entre modifier l’ADN de cellules en culture et modifier un organisme entier.



Un peu comme ici : il y a un gap immense entre du deep learning et une IA type Skynet ;)


La Zone 51. <img data-src=" />


L’IA a bon dos est c’est maintenant devenue une cible facile car la chose, programmée, programmable, ne peut pas se défendre ou même débattre, pas si intelligente que cela en fait.

l’IA, aussi appelée “Pas de chance” sera toujours en faute et cela au nom du progrès dont certains constateront qu’il ressemblera pour eux plus au XIXe siècle qu’au XXIe.

La droite applaudira des deux mains en vertu de la liberté d’entreprendre tandis que la gauche applaudira des deux pieds pour avoir courageusement mis en place le revenu universel sponsorisé par Amazon dont Alexa se chargera de réinvestir 100% (voir plus) du RU dans son économie..

Les pauvres seront heureux et satisfais de parler à un objet en souriant: C’est beau le progrès!



Un sondage d’opinion démontrera que selon 97% de la population (sondage Amazon/LaMonarchieEnMarche) pensent que Tocqueville et Marx sont des marques pourries et qu’ils veulent plus de soldes…



Je sais je suis optimiste..


Après le “c’est de la faute à l’UE”, on aura “c’est de la faute à l’IA”. <img data-src=" />








tazvld a écrit :



“C’est qui le plus fort, l’hippopotame ou l’éléphant?”





l’éléphant (parce que toute la force est dans la trompe¹)



¹ même source



J’ai pas vraiment lu dans cet article qu’on prédisait la “fin de l’humanité”.



Les cas soulevés avec le phishing, la synthèse vocale, etc., sont possibles à relativement court terme.



Et pourtant, je ne suis pas de ceux qui pensent qu’on doit mettre “IA” dans toutes les phrases. D’ailleurs, comme certains ici, je trouve qu’il s’agit souvent “seulement” de machine learning, entraîné avec une masse considérable de données. Pas de “I, Robot”, donc.



Mais il n’empêche que la grande accessibilité de ce genre de techniques (librairies, puissance disponible via le cloud, facturée à la minute) ira encore en augmentant.



Donc, prévoir les attaques possibles est forcément nécessaire. Et ce ne sera pas des attaques fomentées par des IA complotistes qui agissent seules en faisant “gniark gniark”… Ce sera bêtement l’utilisation des techniques modernes par des humains mal intentionnés.



Comme quelqu’un l’a dit plus haut, déclarer en un haussement d’épaule “ouais mais on en a marre d’entendre parler d’IA tout le temps” ou “laissez-nous tranquille, l’IA sera tout à fait bénéfique à l’humanité” ne résoudra pas les futurs problèmes par magie.



Qu’il y ait des gens qui s’intéressent aux problèmes à venir est bénéfique (surtout quand il s’agit de scientifiques), et s’ils sont un jour écoutés, c’est mieux.



Ca n’empêche pas par ailleurs de penser qu’il y aura plein d’applications bénéfiques de “l’IA”, et plein de gens sont aussi en train d’y travailler.


Je fait du machine learning (université, projets,…) et ce terme d’intelligence artificielle m’énerve. C’est du machine learning / apprentissage automatique ce n’est pas l’intelligence…







définition de l’intelligence (selon wikipedia) :

“L’intelligence est l’ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d’apprendre ou de s’adapter à des situations nouvelles”



Selon moi (et d’autres), cette dernière partie est primordiale, être capable de prendre une décision lors d’une situation inconnue. Or un algorithme (ML, IA ou autre) est complétement incapable de celà.



L’algo est capable d’apprendre par l’exemple, oui, mais il est très inefficace (Il a besoin de quelque milliers d’image de chats pour commencé à en identifier un sur de nouvelles images), par contre il pourra devenir un expert en la matière même meilleur que l’humain, mais seulement dans cette tâche spécifique. Par exemple, il sera incapable de reconnaître un chien. Alpha go est un expert en GO, mais mets le sur un échiquier, il est perdu.



Algo ne fait que ce que son programmeur lui dit de faire, il a une certaine marge de manœuvre sur comment le faire, mais c’est toujours le programmeur qui lui donne les possibilités. Ça reste des maths et de la programmation, il n’y a rien de magique et rien d’intelligent. On est donc a des années lumière (dans l’état actuel de la technologie) de l’intelligence artificielle qui prendra le dessus sur l’humain.



Pour les dangers cité par l’étude, ils sont bien réel, mais c’est comme pour tout, on utilise un couteau pour couper la viande, mais on peut tuer avec… Alors c’est bien d’essayer d’anticiper pour se préparer à ces cas, mais c’est des débordement inévitable qui ne doivent pas pérorer tout les bénéfice possible. C’est la même chose avec toute les nouvelle technologie, même pour les plus simple.



J’abonde totalement, ça fait un moment que je peste contre ce terme complètement à coté de la plaque.



Je vois ça comme de la programmation assistée par ordinateur : ça permet d’obtenir des programmes que l’on n’est pas capable de coder à la main (car le problème ne se résout pas par le déroulement d’une logique séquentielle) et donc ça parait magique et super intelligent. Mais le programme obtenu est comme un autre : (plus ou moins) bon pour faire la tache pour laquelle il est prévu, mais c’est tout…








odoc a écrit :



En fait j’ai déjà expliqué ce contexte dans un autre article, d’où la non redite ;) (je connais assez bien le système pour ma part <img data-src=" />).



Comme je l’expliquais, non on est très très loin de la thérapie génique : y a une barrière immense entre modifier l’ADN de cellules en culture et modifier un organisme entier.



Un peu comme ici : il y a un gap immense entre du deep learning et une IA type Skynet ;)





A mes souvenirs, effectivement, je sais que tu bosses en bio, c’est surtout que dans cette discussion, il n’était pas rappelé le contexte de Cas9. Pour ma part, j’ai suivi ça d’assez loin, j’ai plus connu CRISPR que Cas9 et tant que c’était a priori plutôt un mécanisme du système immunitaire des bactéries et archées (même si on leur trouverait plein d’autre fonction).

Mais de ce que j’imagine, c’est un peu comme la transformation de bactéries, il faut plutôt compter sur un taux faible de cellules transformées. C’est plutôt envisageable de l’utiliser dans le cas où la modification d’un nombre réduit de cellules est suffisante.

En faite, j’imaginais que tu parlais plutôt de la peur du transhumanisme et de l’eugénisme qu’un tel outil pourrait laisser imaginer, et que l’on nous ressorte toutes les œuvres de SF sur le sujet.









tazvld a écrit :



A mes souvenirs, effectivement, je sais que tu bosses en bio,





oui je suis chercheur au CNRS (enfin en CDD mais passons), en biologie moléculaire.





tazvld a écrit :



c’est surtout que dans cette discussion, il n’était pas rappelé le contexte de Cas9.





d’habitude c’est vrai que j’évite de ne pas détailler mes propos, faut dire qu’en ce moment c’est un peu sport côté taf ^^





tazvld a écrit :



Pour ma part, j’ai suivi ça d’assez loin, j’ai plus connu CRISPR que Cas9 et tant que c’était a priori plutôt un mécanisme du système immunitaire des bactéries et archées (même si on leur trouverait plein d’autre fonction).







oui à la base c’est bien ça. Mais en fait il se trouve qu’à partir du moment où il y a une séquence précise dans le génome (humain par ex), on peut utiliser cette séquence (appelée PAM) pour cibler une région proche (et comme on utilise un guide, on peut cibler cette région proche au nucléotide (les fameux A/T/C/G) près).

Après au départ de cette technique, on coupait simplement l’ADN (via la Cas9) mais l’ingéniosité des chercheurs étant là (et le fait que le système coupe pas un rond ^^) on peut faire bien plus aujourd’hui (entre autre : insérer/réparer une mutation, insérer ce que l’on veut, utiliser une cas9 particulière pour ensuite cibler les protéines proches de la région ADN d’intérêt, etc). C’est un peu la beauté de ce système ;) (enfin quand on est biologiste quoi ^^).





tazvld a écrit :



Mais de ce que j’imagine, c’est un peu comme la transformation de bactéries, il faut plutôt compter sur un taux faible de cellules transformées. C’est plutôt envisageable de l’utiliser dans le cas où la modification d’un nombre réduit de cellules est suffisante.







oui, en pire ^^

en gros actuellement (donc dans un système simple ie dans une boite de pétri), on “modifie” 10 millions de cellule pour en isoler 1 au final. Ca prend au mieux 1 mois …







tazvld a écrit :



En faite, j’imaginais que tu parlais plutôt de la peur du transhumanisme et de l’eugénisme qu’un tel outil pourrait laisser imaginer, et que l’on nous ressorte toutes les œuvres de SF sur le sujet.







oui c’est ça en fait. La presse parle de ce système comme d’un risque important pour la santé (sa va de la modification du génome par le chercheur un peu fou au risque terrorisme …).

Dans l’autre thread j’indiquais que tout ça c’était du pur fantasme : non seulement il reste des gaps techniques importants pour un jour modifier le génome de tout un organisme déjà en place (c’est pas pour rien que pour le moment on se contente de modifier des embryons de souris par ex) mais en plus vu qu’on ne comprend toujours pas entièrement le fonctionnement du génome humain (sinon je serais surement au chomage ^^) c’est pas bien simple d’insérer une modification à dessein.

Enfin je laisse le cote terrorisme, qui montre à quel point ces “journalistes” ne font pas leur boulot : c’est bien plus simple de louer un camion que de créer une arme biologique (et si un groupe terro pouvait fabriquer de telle arme, c’est pas vers CRISPR/Cas9 qu’il irait mais un truc genre variole)



Bref c’est vraiment un parallèle avec l’IA ici : des gens qui fantasment sur un truc, qui n’y comprennent rien, qui surtout ne se renseignent absolument pas au près des personnes compétentes mais qui en parlent beaucoup (trop) …



Quand je vois qu’on parlait déjà d’un moratoire sur l’utilisation de cette technique alors que c’est un outils unique dans son genre, c’est juste hallucinant.



C’est un peu comme si on demandait aux chercheurs d’arrêter de faire des OGM. Pour un public lambda OGM c’est Mosanto et son mais, pour un biologiste c’est les milliards de bactérie que je modifie tout les jours pour produire toutes les molécules biologiques que j’utilise quotidiennement (ADN et protéines). C’est pas parce qu’on ne comprend pas un concept qu’on doit immédiatement l’interdire …









heret a écrit :



Ah, ces mythes qui nous abusent !

Une intelligence artificielle serait-elle en mesure de découvrir le sens caché de la phrase juste au dessus ?&nbsp;<img data-src=" />



Combien d’humains sont en mesure de découvrir par eux même le concept de contrepèterie ?

Cela ne me parait pas impossible de munir une IA d’un algorithme ad hoc capable de comprendre le sens de ta phrase.



figure-toi que dans le milieu des années 80, j’avais écris la première version d’un soft qui aidait à la résolution des contrepèteries, sur un Amstrad CPC et en Turbo Pascal, juste pour voir si ça pouvait se faire. Puis je l’avais amélioré lorsque je suis passé sur Macintosh au début des années 90 et ré-écrit en C (parce que l’informaticienne compile le C). La version actuelle est en Java. Il faut l’aider un peu pour la phase de phonétisation. J’ai quelques idées d’améliorations, mais je crois que ça attendra ma retraite. <img data-src=" />


Il faut LE mec qui donne l’ordre tordu.



Les philosophes de la Rome antique d’il y a plus de 2000 ans avaient déjà imaginé les robots. <img data-src=" />


Tes humains sont désorganisés depuis qu’ils ont la technique qui le fait pour eux.

Est ce réversible ?


Trop cool&nbsp;<img data-src=" />



En entrée de ton programme tu as n’importe quelle phrase et ça trouve un ensemble de phrases qui sont la résolution de la contrepèterie ?



ça serait drôle d’analyser un corpus d’histoires salaces, de comptabiliser les occurrences des lemmes et d’utiliser ces chiffres pour trier les phrases qui sont la résolution de la contrepèterie. De cette manière le résultat qui a le plus grand score est la résolution la plus probable. Ce système peut être utilisé à l’envers pour trouver à partir d’une phrase quelconque les contrepèteries les plus salaces <img data-src=" />


Essaye avec une chanson <img data-src=" />

https://www.youtube.com/watch?v=IZtQZokaQ1w

Je n’ai qu’un oeil dans la fente

Je n’ai qu’un doigt sur la tempe

(2:00)