OpenAI, une alliance ouverte pour la recherche sur l'intelligence artificielle

OpenAI, une alliance ouverte pour la recherche sur l’intelligence artificielle

Elon Musk affronte ses peurs

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

15/12/2015 6 minutes
33

OpenAI, une alliance ouverte pour la recherche sur l'intelligence artificielle

Plusieurs personnalités et entreprises se sont réunies pour former une alliance autour de l’intelligence artificielle. Nommée OpenAI, cette initiative a pour but de financer des travaux dont les résultats pourront profiter à tous. Elon Musk, l’un des membres fondateurs, rêve ainsi d’une « intelligence artificielle générale » qui pourrait s’occuper de presque tout type de calculs.

OpenAI est à la fois une alliance, une initiative et une société de recherche à but non lucratif. Ses membres fondateurs sont des industriels connus ou des entreprises ayant un intérêt direct à voir se développer des outils améliorés et de nouvelles pistes de recherche pour l’intelligence artificielle. Les deux co-présidents seront ainsi Elon Musk, qui dirige Tesla et SpaceX, et Sam Altman, le patron d’Y Combinator. Ilya Sutskever, chercheur travaillant auparavant chez Google, sera le directeur de recherche de la structure, et on compte d’autres têtes connues, comme l’investisseur Peter Thiel, ainsi que des entreprises telles qu’Amazon (sa branche Web Services) et l’Indien Infosys.

Un budget d'un milliard de dollars pour l'instant

Le fonctionnement d’OpenAI est un peu particulier. L’acte de fondation prévoit un budget d’un milliard de dollars, mais dont seule une petite partie sera utilisée durant les premières années de travail. L’activité sera évidemment centrée sur le développement de nouvelles techniques autour de l’intelligence artificielle, qui seront ensuite librement utilisables par d’autres structures. Le communiqué annonce cependant que la route sera parsemée d’embuches : « L’aboutissement de cette aventure est incertain et le travail sera difficile, mais nous pensons que l’objectif et la structure sont justes ».

Le communiqué s’attarde sur un changement profond de la perception de l’intelligence artificielle. Les fondateurs d’OpenAI rappellent ainsi que durant les premières années, beaucoup pensaient que travailler sur la résolution de tâches spécifiques, comme une partie d’échecs, déverrouillerait l’accès à une compréhension plus globale de l’influence humaine et donc de sa synthèse. Mais chaque solution trouvée restait spécifique à un problème, sans nécessairement pouvoir être généralisée. En apprentissage profond, utilisé par pratiquement tous les services en ligne, les architectures doivent au contraire s’adapter automatiquement à de nouveaux cas, sans que les développeurs aient besoin de créer de nouveaux algorithmes. Ce qui suppose évidemment qu’une telle architecture soit à même d’identifier les situations pour y faire face correctement.

« les chercheurs seront fortement encouragés à publier leurs travaux »

Le but d’OpenAI ? Aller justement dans le sens de la généralisation : « Il est difficile de prédire quand une intelligence de niveau humaine sera à portée. Quand ce sera le cas, il conviendra d’avoir une institution de pointe dans la recherche capable de mettre la priorité sur de bons résultats pour tous, plutôt que sur son propre intérêt ». En tant que structure à but non lucratif, son but est de « de créer de la valeur pour tous plutôt que pour les actionnaires ». De fait, « les chercheurs seront fortement encouragés à publier leurs travaux, qu’il s’agisse de compte-rendu, de billets de blog ou de code ». OpenAI ajoute : « Nos brevets (s’il y en a) seront partagés avec le reste du monde. Nous collaborerons librement avec d’autres à travers de multiples institutions et espérons travailler avec des entreprises pour chercher et déployer de nouvelles technologies ».

OpenAI a déjà attiré plusieurs chercheurs assez connus dans le domaine de l’intelligence artificielle, notamment Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma, John Schulman, Pamela Vagata et Wojciech Zaremba. Il manque cependant de nombreuses informations sur le fonctionnement précis de la structure, ou sur son financement. On ne sait pas par exemple comment le milliard de dollars sera dépensé, ni pourquoi OpenAI ne compte en utiliser qu’une petite partie durant les premières années. On ne connait pas non plus la participation exacte de chaque membre fondateur.

Il est par ailleurs amusant de voir Elon Musk prendre une part très active quand on sait que l’industriel éprouve certaines angoisses face à l’intelligence artificielle. Il a cependant indiqué au New York Times : « Il existe toujours un risque qu’en essayant de faire progresser l’intelligence artificielle, nous créions en fait la chose qui nous inquiète ».

Des retombées potentiellement très larges

Les domaines d’application des résultats sont en tout cas très nombreux. Une entreprise telle qu’Amazon pourra ainsi profiter directement des avancées réalisées sur l’apprentissage profond et les réseaux neuronaux. L’intelligence artificielle étant par ailleurs au cœur des voitures autonomes, on imagine qu’Elon Musk attend avec impatience les premiers retours pour enrichir les gammes Tesla. Outils d’analyse et décisionnels, diagnostics médicaux, robots chirurgiens, services en ligne, assistants divers : les champs d’applications ne manquent pas.

On peut se demander enfin si l’initiative n’attirera pas de nouveaux participants dans les prochaines années. Microsoft, Apple, Google ou encore IBM ne sont pas impliqués dans la structure, alors même que ces entreprises investissent lourdement dans ce domaine. En outre, les centres de recherche sur l’intelligence artificielle ne sont pas nouveaux. Par exemple, le co-fondateur de Microsoft, Paul Allen, a déjà créé un institut à but non lucratif l’année dernière, avec les mêmes objectifs. Les universités travaillent elles aussi sur ce type de technologie, notamment Stanford. De son côté, Facebook a déjà lancé son AI Research depuis plusieurs mois.

Le chercheur Eric Horvitz lui a d’ailleurs fait don d’une somme inconnue pour étudier l’impact de l’IA sur le quotidien. Le constructeur Toyota va lui aussi investir un milliard de dollars dans un laboratoire près de Stanford, pour un programme de recherche sur cinq ans qui portera sur l’intelligence artificielle et les technologies robotiques. Qui sait, le transit de masse automatisé de Minority Report n’est peut-être plus si loin.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un budget d'un milliard de dollars pour l'instant

« les chercheurs seront fortement encouragés à publier leurs travaux »

Des retombées potentiellement très larges

Fermer

Commentaires (33)


Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….


Alors ça, c’est le genre de nouvelle qui fait très peur.



D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.

Mais bon, c’est pas comme si les drones ne chassaient pas en meutes, tels des locustes, et cela, de manière autonome…


A quand l’émergence de la singularité “intelligence artificielle”?



 Ce jour-là, ça sera drôle.


HAL a du retard.

On est fin 2015, alors que Stanley Kubrik avait prévu 2001 (pour l’Odyssée de l’espace) ! <img data-src=" />


Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />

Après on sera plus tranquilles.








Jaskier a écrit :



Alors ça, c’est le genre de nouvelle qui fait très peur.



D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.

Mais bon, c’est pas comme si les drones ne chassaient pas en meutes, tels des locustes, et cela, de manière autonome…





Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.

On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.



L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.



Putain, les mecs, c’est pas comme si la SF nous avait prévenue…





Exosta a écrit :



Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.

On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.



L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.





VAs faire des recherches sur les bot militaires, ça devrait légèrement modifier ta conclusion <img data-src=" />









Jaskier a écrit :



Alors ça, c’est le genre de nouvelle qui fait très peur.





Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.







Jaskier a écrit :



D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.





Quand on y réfléchit, ce ne serait peut-être pas plus mal.









Obidoub a écrit :



Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />

Après on sera plus tranquilles.





Même avec la loi zéro en plus des 3 lois d’asmiov ça peut finir sur une quasi extinction de l’espèce humaine.









Obidoub a écrit :



Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />

Après on sera plus tranquilles.





+1. Un peu comme les droits de l’homme. <img data-src=" />









MasterDav a écrit :



Même avec la loi zéro en plus des 3 lois d’asmiov ça peut finir sur une quasi extinction de l’espèce humaine.





Ca serait pas une grosse perte. <img data-src=" />









MasterDav a écrit :



asmiov





Excusez ma dysgraphie.









ExIcarus a écrit :



Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….







tu trouve que l’humain est particulièrement intelligent?







Exosta a écrit :



Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.

On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.



L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.







c’est tellement vrai, surtout qu’avec les perfs actuels ce serait une intelligence bien lente, n’escompter pas l’apparition d’une véritable IA avant la démocratisation des processeurs quantiques…

(d’ailleurs il y a un film relativement récent mettant en scène l’IA et le méchant de l’histoire c’est l’humain de part sa méfiance généralisé, a méditer…)



Du très bon toutes ces initiatives qui privilégient le partage de l’information !



Il suffit maintenant que toutes les autres grosses sociétés citées dans l’article mettent en commun leurs efforts, et les avancées n’en seront que plus rapides.

Au final, si l’ia est l’ultime innovation venant de l’homme, autant s’entraider une dernière fois, non ? <img data-src=" />








js2082 a écrit :



A quand l’émergence de la singularité “intelligence artificielle”?



 Ce jour-là, ça sera drôle.





Une vidéo sur le sujet de la chaine computerphile : Danger of Global A.I. Ca fait un peu réfléchir.







Obidoub a écrit :



Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />

Après on sera plus tranquilles.





Les 3 lois ne sont pas fiables. L’auteur les a créé pour s’amuser à en exposer tous les dysfonctionnements dans ses histoires.







MasterDav a écrit :



Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.



Quand on y réfléchit, ce ne serait peut-être pas plus mal.





La deuxième a créé la première ;)









Koxinga22 a écrit :



La deuxième a créé la première ;)





Ce qui ne change rien à la donne. Surtout lorsque l’on aura atteint la singularité.









otto a écrit :



Putain, les mecs, c’est pas comme si la SF nous avait prévenue…

VAs faire des recherches sur les bot militaires, ça devrait légèrement modifier ta conclusion <img data-src=" />





Pour moi, même une machine armée et pseudo-autonome (I.A.) est moins dangereuse qu’une I.A.G. (I.A. Globale) qui se contenterait de collectionner des timbres. La première obéi bêtement à des ordres, ne serait-ce que ceux de son circuit d’alimentation en énergie. La deuxième “apprend” et s’améliore seule à un rythme qui nous est inconnu (mais des milliards de fois plus vite que nous humains biologiques), elle peut “redécouvrir” les sciences, l’électricité, etc par elle-même, s’émanciper ou prendre le contrôle d’infrastructures existantes et au bout du compte, si pour obtenir plus de timbres il faut dézinguer des humains pour collecter des matières premières, elle le fera sans état d’âme. C’est bien plus dangereux qu’un robot avec un flingue.



la loi 0 est aussi d’Asimov :)

D’ailleurs, pour continuer ton propos, on peut aussi préciser qu’Asimov a passé une bonne partie de se écrits (du moins, ses ouvrages sur les robots) à malmener le contexte de ses protagonistes pour au final renverser le paradgime de ces lois et malmener les humains <img data-src=" />








Koxinga22 a écrit :



Les 3 lois ne sont pas fiables. L’auteur les a créé pour s’amuser à en exposer tous les dysfonctionnements dans ses histoires.



Ses limites, il n’y a pas de dysfonctionnement justement. Elles sont fiables, mais elles ne suffisent pas en soi.

Ça fait d’ailleurs réfléchir au sens de nos lois humaines, leurs limites, et même faire un rapprochement avec les dérives sécuritaires de lois trop peu précises.







ExIcarus a écrit :



Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….



C’est justement parce que l’humanité manque d’intelligence qu’elle en a besoin d’une artificielle^^







MasterDav a écrit :



Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.



Yep.

Sauf que ce sera toujours l’esprit humain imparfait qui aura conçu cette IA, la rendant donc imparfaite aussi.



Le plus important est que l’on soit conscient des dangers, je pense que c’est largement le cas, et vigilants sur les applications que peuvent donner ces recherches.



Mais dans l’idée, tout ce qui peut permettre d’atteindre un monde robotisé où l’homme serait dégagé des travaux pénibles est bon à creuser.



C’est pour bientôt, mon petit Karl, c’est pour bientôt… <img data-src=" />












ActionFighter a écrit :



C’est pour bientôt, mon petit Karl, c’est pour bientôt… <img data-src=" />





en remplaçant 100% du travail par du capital ?

Va falloir bosser le paradigme de remplacement alors <img data-src=" />









WereWindle a écrit :



en remplaçant 100% du travail par du capital ?

Va falloir bosser le paradigme de remplacement alors <img data-src=" />





C’est bien pour cela qu’il sera nécessaire un jour de revenir aux écrits de Karl, car continuer avec un modèle capital nous priveras de tous les bienfaits de la robotisation en terme de temps de travail <img data-src=" />









WereWindle a écrit :



en remplaçant 100% du travail par du capital ?

Va falloir bosser le paradigme de remplacement alors <img data-src=" />





un peut comme dans La Culture.









Dude76 a écrit :



la loi 0 est aussi d’Asimov :)

D’ailleurs, pour continuer ton propos, on peut aussi préciser qu’Asimov a passé une bonne partie de se écrits (du moins, ses ouvrages sur les robots) à malmener le contexte de ses protagonistes pour au final renverser le paradgime de ces lois et malmener les humains <img data-src=" />





Je n’ai pas dit le contraire <img data-src=" />

A noter aussi que les lois ont évolué avec le temps, même si au final le problème d’interprétation n’est pas résolu.





Sauf que ce sera toujours l’esprit humain imparfait qui aura conçu cette IA, la rendant donc imparfaite aussi.



Non: singularité.



Dans les jeux vidéos (actuels, à venir ou anciens), il y en a beaucoup qui pourraient en profiter. Parce que pour beaucoup, l’IA brille par son absence.



La série des Twisted Metal est un exemple classique, les véhicules contrôlés par l’ordinateur ont un nombre illimité de coups spéciaux (pour compenser leur intelligence pathétique).



Dans Alerte Rouge, augmenter le niveau de difficulté a pour effet concret de réduire les temps de construction des camps gérés par l’ordi en plus court que ceux des joueurs humains.



Et ainsi de suite, les exemples manquent pas. <img data-src=" />








ExIcarus a écrit :



Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….





Je pense que les dégâts sont pas encore suffisants pour que ça vaille la peine (après c’est mon avis perso et on est tous le con d’un autre (j’ai oublié de qui c’est)).









Winderly a écrit :



Dans les jeux vidéos (actuels, à venir ou anciens), il y en a beaucoup qui pourraient en profiter. Parce que pour beaucoup, l’IA brille par son absence.



La série des Twisted Metal est un exemple classique, les véhicules contrôlés par l’ordinateur ont un nombre illimité de coups spéciaux (pour compenser leur intelligence pathétique).



Dans Alerte Rouge, augmenter le niveau de difficulté a pour effet concret de réduire les temps de construction des camps gérés par l’ordi en plus court que ceux des joueurs humains.



Et ainsi de suite, les exemples manquent pas. <img data-src=" />





Je ne crois pas que ce soit l’objectif du chantier d’Elon Musk :) (encore que …)

Mais si tu veux mesurer tes skills face à une intelligence humaine ou comparable, il y a le PvP <img data-src=" />



Pour l’instant, on ne sait pas créer de conscience. Peut-être dans 100 ans on verra un début. En attendant, son usage reste limité par son matériel (processeur, ram et répartition des taches)…matériellement internet ce reproche plus d’une structure d’un cerveau.








FrancoisA a écrit :



HAL a du retard.

On est fin 2015, alors que Stanley Kubrik avait prévu 2001 (pour l’Odyssée de l’espace) ! <img data-src=" />







Euh, ça serait pas Arthur C. Clarke plutôt?….




Seulement pour ceux qui savent lire.








theprecursor a écrit :



Du très bon toutes ces initiatives qui privilégient le partage de l’information !



Il suffit maintenant que toutes les autres grosses sociétés citées dans l’article mettent en commun leurs efforts, et les avancées n’en seront que plus rapides.

Au final, si l’ia est l’ultime innovation venant de l’homme, autant s’entraider une dernière fois, non ? <img data-src=" />





C’est très bien oui, mais avoir des initiatives séparées est aussi une bonne chose. Il n’y a pas qu’une unique solution ou voie pour y arriver. :)



Pas facile de “créier” une vraie IA…

Peut-être est-ce juste impossible.