Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Le CNRS fait le point sur la robotique et l'intelligence artificielle

« Les robots sont-ils ou seront-ils capables de nous remplacer ? Pour quelles tâches ? L’intelligence artificielle va-t-elle dépasser l’intelligence humaine ? » Jean-Paul Laumond, directeur de recherche au CNRS, apporte quelques éléments de réponses à ces vastes questions.

Le chercheur part d'abord d'un constat général : « Nous sommes conscients que ces logiciels ne sont pas parfaitement fiables et nous nous en accommodons car finalement ils ne marchent pas si mal et leurs erreurs ne prêtent pas à conséquence ». Néanmoins, les conséquences peuvent être bien différentes sur d'autres systèmes.

« Confondre une autruche et tante Adèle n’a pas le même niveau de gravité que confondre sur une radiographie du sein des microcalcifications et des tumeurs naissantes. C’est au médecin qu’il revient, in fine, d’établir le diagnostic et d’en endosser la responsabilité ».

Même problématique dans la robotique : « La moindre erreur de logiciel peut conduire un robot humanoïde à chuter [...] Les algorithmes, les logiciels qui en résultent et les informations qui découlent du calcul doivent être certifiés. C’est tout le défi de la robotique que de rendre compte du monde physique sous cet impératif ».

Au final, l'Homme « s’accommode bien dans la pratique des limitations de ces technologies logicielles. On ne cherche pas des logiciels fiables à coup sûr. Il suffit qu’ils soient corrects la plupart du temps »… mais ce n'est pas le cas dans bien d'autres domaines. 

Bref, « les progrès en robotique sont plus lents qu’il n’y paraît ». 

12 commentaires
Avatar de ajangot Abonné
Avatar de ajangotajangot- 16/09/19 à 09:07:11

C'est surtout les "journalistes" et les "tech" (startup de technologie) qui abusent du mot "intelligence artificiel". Les algo qui sont utilisé découle très souvent de formule mathématique et de tests empiriques, il n'y a rien d'intelligent, ni d'artificiel.
La marche du Roméo de chez Aldebaran ne sera dévoilé au public que lorsque le robot ne tombera pas parce que y'a un peu vent car si le public va un robot de 250kg, 1,40m tombé, ça pourrait faire peur.

Avatar de Jarodd INpactien
Avatar de JaroddJarodd- 16/09/19 à 09:49:48

Perso je ne vois pas de différence entre une autruche et tante Adèle, donc je n'en veux pas au programme s'il a le même résultat que moi.

Avatar de LeJuge Abonné
Avatar de LeJugeLeJuge- 16/09/19 à 09:53:20

Les êtres humains aussi tombent, pourquoi la machine serait plus parfaite que nous ? 
C'est comme la conduite autonome, oui il y aura des morts mais si ils sont moins nombreux que lorsque que ce sont des humains qui conduisent, est ce que cela ne serait pas déjà un progrès ?

Avatar de Ksass`Peuk INpactien
Avatar de Ksass`PeukKsass`Peuk- 16/09/19 à 10:00:12

<Insérer un commentaire sur l'usage d'outils formels en info ici>

Avatar de WereWindle INpactien
Avatar de WereWindleWereWindle- 16/09/19 à 10:04:55

LeJuge a écrit :

Les êtres humains aussi tombent, pourquoi la machine serait plus parfaite que nous ?

Parce qu'elle remplace un être humain. Si elle ne fait pas mieux que lui (et je ne vais pas jusqu'à l'infaillibilité, hein), c'est un juste un remplacement pour gagner du fric et ça ne passerait probablement pas auprès de la société.

LeJuge a écrit :

C'est comme la conduite autonome, oui il y aura des morts mais si ils sont moins nombreux que lorsque que ce sont des humains qui conduisent, est ce que cela ne serait pas déjà un progrès ?

Et c'est ce que dit Jean-Paul Laumond : si tu lâche dans la nature un système autonome (quel que soit le degré d'autonomie, en fait), tu dois pouvoir prouver que ce qui le dirige tient la route.

Comme pour la voiture autonome, la vraie question à la fin c'est sur qui on tape quand il y a une couille dans le potage... (en terme plus juridique : comment faire évoluer le droit de la responsabilité)

Avatar de grsbdl INpactien
Avatar de grsbdlgrsbdl- 16/09/19 à 10:17:01

Voilà, autant on tolère de mourir par notre propre faute (on assume, quoi), autant mourir à cause d'une machine ou d'un programme, c'est très loin d'être accepté. Quand bien même la machine ferait 1000 fois moins d'accidents mortels que l'humain, on se retrouverait toujours à dire "oui mais dans cet accident, un humain aurait pu s'en sortir s'il avait gardé la main". Personne n'accepte d'être celui qui meurt, même si c'est pour en sauver 1000 : ça n'arrive que dans les films américains :-)

Avatar de js2082 INpactien
Avatar de js2082js2082- 16/09/19 à 11:26:09

La principale différence avec l'humain, c'est que nous pouvons rendre la machine quasi-infaillible, pas l'humain, notamment avec des process de vérification/confirmation/redondance multiple qui peuvent se faire en temps réel.

Cette distinction permet d'exiger la perfection pour une machine, là où nous ne le faisons pas pour l'humain.

Avatar de grsbdl INpactien
Avatar de grsbdlgrsbdl- 16/09/19 à 11:40:27

Au contraire, les machines savent uniquement faire ce qu'on leur apprend, elles gèrent mal tout ce qui sort du process normal. Les machines restent gouvernées par des algorithmes conçus par des humains.
Aussi, pour prendre le cas de l'automobile, il s'agit d'un environnement très difficile, où non seulement les divers capteurs peuvent mal accomplir leur tâche (ex: une canette confondue avec un camion à cause du reflet du soleil, qui a forcé un autopilote à freiner sur une voie rapide), voir à mal fonctionner (défaut ou usure, même doublé parfois ça ne suffit pas) ou même rendre l'âme.
On fantasme beaucoup sur la machine parfaite, mais ça reste de la science fiction.

Avatar de j34n-r0x0r INpactien
Avatar de j34n-r0x0rj34n-r0x0r- 16/09/19 à 12:10:35

 La machine parfaite ? Il va falloir sacrement la doper aux hormones :
-Algo random privé sinon ça bluff pas la partie logique active
Et la rendre faillible :
-Temps de latence pour simuler le doute et favoriser le lien social avec des unités calculants moins vite
-Pirouette logique autour de l’algo privé pour simuler personnalité, instinct de survie et éventuellement si il y a assez de place des croyances

On diminuera aussi sa durée de vie pour en vendre plein et comme on ne sait pas combien de temps l’expérience va durer le mieux serait de rendre le corps biodégradable et/ou recyclable.

D’ailleurs ça serait bien que le corps sente mauvais a la fin, il ne faudrait pas qu’ils restent trop statique et qu’ils découvrent trop vite de quoi ils sont fait.

Si on ne fait pas tout ça les investisseur ne suivront pas...une idée pour le nom ?

l’Homme ? :roll:

Avatar de tmtistroll INpactien
Avatar de tmtistrolltmtistroll- 16/09/19 à 12:14:06

Du coup maintenant vous faites du commentaire d'articles publiés par d'autres sites. :fumer:

Il n'est plus possible de commenter cette actualité.
Page 1 / 2