L'IA sur tous les fronts : d'Amazon à Google, en passant par La Poste et Sony

L’IA sur tous les fronts : d’Amazon à Google, en passant par La Poste et Sony

Intelligence artificielle, mais profits réels

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

23/05/2016 8 minutes
17

L'IA sur tous les fronts : d'Amazon à Google, en passant par La Poste et Sony

L'intelligence artificielle va devenir de plus en plus incontournable tant son champ d'action est important. Ces derniers jours, les annonces ont été nombreuses : Google présente son TPU, Amazon publie son application DSSTNE en open source, tandis que Sony et La Poste investissent dans des startups spécialisées.

Depuis que l'ordinateur AlphaGo de DeepMind (filiale de Google) a battu le champion Lee Sedol au jeu de Go, l'intelligence artificielle et l'apprentissage profond sont revenus sur le devant de la scène. Ces techniques n'ont pourtant rien de nouveau, mais elles progressent très rapidement (voir notre analyse). Au cours des derniers jours, plusieurs acteurs de poids ont fait part de leurs ambitions dans ce domaine.

Tensor Processing Unit : une solution matérielle pour l'apprentissage de l'IA

Commençons par Google qui présente son Tensor Processing Unit (TPU). Il s'agit d'un circuit intégré spécialisé (ASIC, ou application-specific integrated circuit) qui a été « construit spécifiquement pour l'apprentissage de la machine et taillé sur mesure pour TensorFlow », le moteur d'apprentissage profond de la société de Mountain View qui a été publié en open source à la fin de l'année dernière.

Dans une interview accordée à nos confrères d''EE Times, l'auteur du billet de blog sur le TPU, Norm Jouppi, explique qu'il s'agit d'un projet débuté il y a maintenant près de trois ans. À l'époque, Google exploitait des CPU, GPU et des FGPA pour ses calculs. La décision a donc été prise de produire des puces maison avec une idée en tête : améliorer grandement les performances.

Aujourd'hui, les TPU sont d'ores et déjà utilisées dans les datacenters de la société de Mountain View, depuis maintenant plus d'un an selon la société. Celle-ci ajoute qu'elle obtient de « meilleures » performances par watt... sans préciser combien exactement et sur quoi elle se base pour la comparaison.

Toujours aussi avare en détail, le géant du Net indique que cette technologie permettrait d'effectuer un bond de sept ans dans le futur de l'apprentissage profond. Des chiffres qu'il faut donc croire sur parole en l'absence de la moindre donnée technique, dommage.

Google l'utilise déjà dans de nombreux produits, NVIDIA propose une solution clés en main

Seule certitude, le Tensor Processing Unit est déjà largement utilisé par Google. On le retrouve notamment dans son ordinateur AlphaGo qui a battu Lee Sedol au jeu de Go, dans RankBrain, une intelligence artificielle qui s'occupe de certaines requêtes du moteur de recherche, ainsi que dans StreetView « pour améliorer la précision et la qualité des cartes de navigation ». Au total, « plus de 100 équipes utilisent aujourd'hui l'intelligence artificielle chez Google ».

Google n'est évidemment pas le seul à développer des solutions matérielles afin d'accélérer l'apprentissage profond. Pour rappel, lors de sa GTC, NVIDIA présentait « le premier superordinateur dans une boite pour l'apprentissage profond » : le DG-X1. Il s'agit d'une machine complète vendue 129 000 dollars avec huit Tesla P100 (des cartes avec des GPU exploitant l'architecture Pascal).

Si NVIDIA mise sur la simplicité avec une solution prête à fonctionner, aussi bien sur le plan matériel que logiciel, Google met en avant la facilité de mise en place : « une carte avec un TPU s'insère dans l'emplacement d'un disque dur dans nos datacenters ». Reste maintenant à savoir si Google commercialisera ses TPU et, le cas échéant, sous quelle forme, car rien n'est précisé pour le moment.

TPU Google

Selon Wired qui a pu s'entretenir avec Urs Hölzle, vice-président des infrastructures chez Google, il ne serait pas question de vendre les puces TPU. Dans tous les cas, il ne s'agit vraisemblablement que d'une première étape, car toujours selon nos confrères, « cette nouvelle puce personnalisée est juste la première d'une série ». Notez qu'il est ici question de puces dédiées à des tâches précises, Urs Hölzle explique à nos confrères de Wired qu'il ne compte pas s'attaquer au marché des CPU et des GPU pour le moment.

Le dirigeant en profite d'ailleurs pour tacler un peu NVIDIA au passage : « Le GPU est trop généraliste pour l'intelligence artificielle. Il n'a actuellement pas été conçu pour cela ».

Google libère SyntaxNet, Amazon propose son DSSTNE en open source

Ce n'est pas la seule annonce récente de Google dans le domaine de l'intelligence artificielle. Quelques jours plus tôt, le géant américain annonçait que SyntaxNet, sobrement présenté comme l'analyseur syntaxique « le plus précis du monde », passait en open source. Il s'agit d'un réseau de neurones qui exploite justement TensorFlow et qui permet de comprendre le langage naturel. Tous les détails techniques se trouvent par ici.

Mais la bataille de l'intelligence artificielle ne se déroule pas uniquement sur la partie matérielle, les logiciels permettant de créer et d'entrainer des intelligences artificielles sont également au centre d'une petite guerre. Plus de six mois après la publication sous licence Apache 2.0 de TensorFlow, le moteur d'apprentissage profond de Google, Amazon lui emboite le pas avec son Deep Scalable Sparse Tensor Network Engine (DSSTNE).

Le but de la manœuvre : « que la promesse d'un apprentissage profond puisse se prolonger au-delà de la parole, de la compréhension du langage et de la reconnaissance d'objets, à d'autres liés à la recherche et aux recommandations » explique la société de Jeff Bezos.

Derrière l'ouverture d'Amazon et Google, un intérêt dans le traitement des données

Derrière ces belles paroles se cache aussi un autre point, certainement plus décisif pour le géant de la vente en ligne : « Nous espérons que les chercheurs du monde entier puissent collaborer ensemble afin de l'améliorer ». Amazon, comme Google avant lui, espère donc que la mise à disposition en open source de ces outils permettra de les faire évoluer à moindres coûts, aussi bien pour la communauté que pour son propre compte.

Comme nous l'avions expliqué dans cette actualité, disposer d'un réseau de neurones informatique est un premier pas vers l'intelligence artificielle, mais cela ne sert pas à grand-chose sans les données qui permettent d'entrainer l'IA. Et le moins que l'on puisse dire c'est qu'il faut des quantités astronomiques de données (des millions, voire des milliards). Exactement comme l'indiquait déjà Google il y a deux semaines, en donnant à un bot des centaines de romans d'amour pour lui faire adopter un langage plus naturel.

Que ce soit chez Google (avec SyntaxNet/TensorFlow) ou Amazon, si les applications sont librement disponibles, ce n'est pas le cas des données. Si l'outil permettant de traiter les données est amélioré, c'est donc tout bénéfice pour Amazon et Google qui pourront ainsi les passer plus efficacement à la moulinette.

Du mouvement côté entreprises : Sony investit dans Cogitai, La Poste croque ProbaYes

Si les GAFA (Google, Amazon, Facebook, Apple, Microsoft, etc.) travaillent sur leur propre solution d'intelligence artificielle, d'autres sociétés ont décidé de prendre le train en marche en s'aidant de startups spécialisées dans ce domaine.

C'est le cas de Sony qui investit dans Cogitai (montant non précisé), une startup fondée en 2015 par trois chercheurs spécialisés dans l'intelligence artificielle : Mark Ring, Peter Stone et Satinder Singh Baveja. Dans son communiqué de presse, Sony explique que cette collaboration permettra de développer de nouvelles technologies d'intelligence artificielle utilisant l'apprentissage profond par renforcement.

De son côté, La Poste annonce l'acquisition « stratégique » de la startup grenobloise ProbaYes. Elle a été fondée en 2003 par des universitaires spécialisés dans la robotique et l'intelligence artificielle, et elle développe « des solutions prédictives et d’optimisation à travers l’analyse de données ».

La Poste explique que ce rachat lui permet de se doter d'un centre de recherche en intelligence artificielle. Une compétence en particulier est mise en avant par le groupe : « savoir faire le pont entre la recherche et les applications industrielles » ; c'est-à-dire passer de la théorie des formules mathématiques à des cas concrets pour faire simple. Bref, La Poste a enfin décidé d'entrer de plain-pied dans le numérique, l'internet des objets (avec son bouton Domino) et l'intelligence artificielle.

Grâce à l'IA, La Poste veut optimiser ses flux et la tournée de ses facteurs

Dans un entretien à nos confrères des Échos, Nathalie Collin, directrice générale adjointe de La Poste, explique que ProbaYes travaillait déjà avec La Banque Postale sur la détection des fraudes et que son « savoir-faire dans la gestion des flux logistiques et de l'énergie sera très utile au reste du groupe, notamment dans l'optimisation des tournées de livraison ». La jeune pousse continuera également de travailler avec ses partenaires comme Toyota ou STMicroelectronics.

Si Google, Amazon, Sony et La Poste ont récemment fait des annonces dans le domaine de l'intelligence artificielle, ce ne sont pas les seules sociétés à plancher sur la question, loin de là. On peut également citer le cas de Facebook qui utilise massivement cette technique pour la reconnaissance des visages et des objets, avec la description de photos depuis peu.

Dans tous les cas, les mois à venir seront certainement riches, et ce, même s'il ne faut pas attendre tout de suite une intelligence artificielle forte capable de penser, d'avoir des émotions, des projets, conscience d'elle-même, etc.

17

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Tensor Processing Unit : une solution matérielle pour l'apprentissage de l'IA

Google l'utilise déjà dans de nombreux produits, NVIDIA propose une solution clés en main

Google libère SyntaxNet, Amazon propose son DSSTNE en open source

Derrière l'ouverture d'Amazon et Google, un intérêt dans le traitement des données

Du mouvement côté entreprises : Sony investit dans Cogitai, La Poste croque ProbaYes

Grâce à l'IA, La Poste veut optimiser ses flux et la tournée de ses facteurs

Commentaires (17)


le couplage avec la physique quantique et les neuro-technologie … va être redoutables pour l’humain.


Ne pourrait-t-on pas inventer l’intelligence artificielle pour nos politiciens? Ce ne serait pas pire que ce qu’on a actuellement


Tu veux I Robot, Skynet ou Matrix ? En vrai ?



La question va se poser rapidement.


Je sais pas, nos politiciens ont besoin d’être un minimum démago pour se faire réélire, une IA risquerait de prendre que des décisions qui ne plaisent pas sans aucun remords…



Oh wait ! Ah non, t’as raison ça serait pas pire en fait <img data-src=" />


La police belge compte s’équiper aussi. L’IA pour croiser les données et aider la police dans son quotidien (genre dresser le PV sur place).

Pourquoi pas. Pour moi ça ressemble à “l’informatisation” de vieilles structures, il y a 50 ans (sauf que là on peut parler d’optimisation).

On a fait le passage au numérique (+ ou - réussi /fini). Et maintenant on se sert des données et comme y en a beaucoup, une aide informatique est la bienvenue ;)


Pas certains que les services publics actuels ait réellement fini cette transition, malheureusement…&nbsp;

L’envoi de courrier papier reste encore le seul moyen de transmettre des documents à la CAF par exemple. &nbsp;

Y’a bien une fonction pièce-jointe sur l’espace en ligne, qui ne fonctionne pas et n’apparait pas à la demande. Bref on parle d’IA alors qu’on est encore au stade de Neandertal en France&nbsp;<img data-src=" />


Moi, La Poste me fait un peu peur au sujet de son implication dans la bancassurance et dans le marketing utilisant les Big Data / Intelligence Artificielle. En effet, ProbaYes est une filiale de Mediapost (la filiale marketing / collecte de données au sein du groupe La Poste)

&nbsphttp://www.commentcamarche.net/news/5868174-la-poste-a-l-heure-du-big-data



&nbsp;


Automatiser tous les processus de relation client, comme le font déjà beaucoup les GAFA, ça ne durera qu’un temps. Actuellement, j’ai l’impression que toutes les grandes entreprises fantasment sur le Big Data, le e-machin qui collecte, traite et transforme l’information en décision pro-active ou prédictive d’un événement probable.

&nbsp;

Or je suis persuadé que la relation client, comme la relation médecin-patient, ne peut pas obéir aveuglément au résultat parfois ubuesque d’un algorithme.








joma74fr a écrit :



Automatiser tous les processus de relation client, comme le font déjà beaucoup les GAFA, ça ne durera qu’un temps. Actuellement, j’ai l’impression que toutes les grandes entreprises fantasment sur le Big Data, le e-machin qui collecte, traite et transforme l’information en décision pro-active ou prédictive d’un événement probable.

&nbsp;

Or je suis persuadé que la relation client, comme la relation médecin-patient, ne peut pas obéir aveuglément au résultat parfois ubuesque d’un algorithme.





Dans la pratique les algo sont surtout utilisés comme outil d’aide à la décision, c’est finalement assez rare d’avoir des systèmes entièrement autonomes, et &nbsp;à en voir le récent sujet sur les trending topic de facebook, ils sont pas prêt de laisser la gestion des contrat pub par une IA&nbsp;<img data-src=" />





joma74fr a écrit :



Moi, La Poste me fait un peu peur au sujet de son implication dans la bancassurance et dans le marketing utilisant les Big Data / Intelligence Artificielle. En effet, ProbaYes est une filiale de Mediapost (la filiale marketing / collecte de données au sein du groupe La Poste)

&nbsp;http://www.commentcamarche.net/news/5868174-la-poste-a-l-heure-du-big-data



&nbsp;





&nbsp;J’espère également que le giron Mediapost n’est là que pour regrouper les activités numérique, mais que les problématiques seront bien celle de la poste. Sinon ça serait du gâchis !



La Poste : “…utile, notamment dans l’optimisation des tournées de livraison”



J’ai monopolisé 2 neurones <img data-src=" /> personnels pour faire un peu de reverse engineering sur les processus de La Poste :

if {\(Taille\_Colis} &gt;= {\)Taille_Boite_aux_lettres}; then

retour_depot_sans_sonner() ;

else

retour_depot_sans_sonner() ;

fi



<img data-src=" />



NB : Fonctionne aussi avec “if any_colis then pas_bouger_du_depot” <img data-src=" />



<img data-src=" />








domFreedom a écrit :



La Poste : “…utile, notamment dans l’optimisation des tournées de livraison”



J’ai monopolisé 2 neurones <img data-src=" /> personnels pour faire un peu de reverse engineering sur les processus de La Poste :

if {\(Taille\_Colis} &gt;= {\)Taille_Boite_aux_lettres}; then

retour_depot_sans_sonner() ;

else

deposer_avis_passage_prerempli() ;

fi



<img data-src=" />



NB : Fonctionne aussi avec “if any_colis then pas_bouger_du_depot” <img data-src=" />



<img data-src=" />





<img data-src=" />



“J’espère également que le giron Mediapost n’est là que pour regrouper les activités numérique, mais que les problématiques seront bien celle de la poste. Sinon ça serait du gâchis !”




    Quand on voit que la stratégie du groupe La Poste est de capitaliser sur la confiance du grand public envers les facteurs (les livreurs de courrier/colis) en en faisant des collecteurs de données (système "Facteo" qui a aussi d'autres fonctions heureusement). "Humaniser la relation client", ça veut dire surtout "vendre de la connaissance client".          



Réhumaniser la relation client à l’ère du digital : Interview de Jack Azoulay dailymotion.fr






    "Dans la pratique les algo sont surtout utilisés comme outil d'aide à la décision, c'est finalement assez rare d'avoir des systèmes entièrement autonomes, et &nbsp;à en voir le récent sujet sur les trending topic de facebook, ils sont pas prêt de laisser la gestion des contrat pub par une IA&nbsp;<img data-src=">"          






    C'est certain, quand l'algorithme ne sécurise pas ou handicape la société qui exploite cet algorithme, celui-ci ne sera pas utilisé sans intervention humaine (les décideurs des grandes entreprises ne sont pas des idiots, ils sont seulement cyniques et individualistes dans leur objetif d'efficacité économique et de sécurisation du risque). En revanche, il n'en est pas de même si le client a un besoin spécifique ou immédiat de sécurisation ou d'humanisation de sa relation avec son prestataire de service. D'après moi, la relation client, c'est avant tout "être à l'écoute de son client" pour lui offrir le service dont il a besoin. Or ici le "digital", l' "IA", la collecte de données sert avant tout à "profiler" les individus pour adapter une réponse commerciale adaptée à chaque segment de clientèle. Ce n'est pas franchement ce que j'appelle "répondre à un besoin du client".          






    Nous sommes bien d'accored, les algorithmes, l'automatisme de la décision ont des limites à la décision. Des limites que le marketing de La Poste, des GAFA, des opérateurs télécom et d'autres sociétés commerciales ont déjà largement dépassées sur quelques aspects de la relation client.

Google ne compte pas vendre ses TPU, ils ont probablement rendu cette info publique pour que ça leur ramène des clients sur GCP, et plus précisément sur Google Cloud ML qui est aujourd’hui en Alpha.



Tensorflow est utilisé dans une cinquantaine de produits Google actuellement. Pour la recherche, le machine learning remplace des règles telles que “si la requête vient de France et qu’il y a tel événement en cours alors …” par des exemples, et les résultats sont meilleures. C’est un gros changement :)


La POSTE…Intelligence Artificielle: tellement vrai. Je pense que cette institution a de milliers d’années d’expérience humaines sur le sujet. L’idée est bonne.


C’est météo-france qui devrait investir, parce que les prévisions même à un jour c’est pas encore ça <img data-src=" />.


“Comme nous l’avions expliqué dans cette actualité, disposer d’un réseau de neurones informatique est un premier pas vers l’intelligence artificielle, mais cela ne sert pas à grand-chose sans les données qui permettent d’entrainer l’IA. Et le moins que l’on puisse dire c’est qu’il faut des quantités astronomiques de données (des millions, voire des milliards). Exactement comme l’indiquait déjà Google il y a deux semaines, en donnant à un bot des centaines de romans d’amour pour lui faire adopter un langage plus naturel.”



… et c’est ce que je me tue à expliquer que justement Google est en train de gaver son IA avec VOS DONNÉES !!!

Dois-je parler des BigData ou OpenData, que certains essaient de mettre en marche et promouvoir à coups de lobbying partout sur la planète ???



VOTRE PROPRE PERTE !!!!!



Signé : Les idiots utiles.








chris.tophe a écrit :



Ne pourrait-t-on pas inventer l’intelligence artificielle pour nos politiciens &nbsp; &nbsp;….&nbsp;



&nbsp;



Surtout pas malheureux, actuellement on peut encore leur dire qu’ils sont tous proches du zéro Kelvin &nbsp; …



S’ils devenaient intelligents, ça tournerait au drame, entre un homni-président et un président normal, on n’aurais plus que le choix de changer de planète.



<img data-src=" />