Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Intelligence artificielle : pour Sundar Pichai, « la question n’est pas de savoir s’il faut réguler, mais comment »

Le sujet d'une régulation dans le domaine de l’IA n’est pas nouveau, mais prend de l’ampleur au fils du temps. Par exemple, la Commission européenne doit émettre des propositions dans un mois sur ce thème.

Sundar Pichai, patron de Google et d’Alphabet, a profité d’un passage à Bruxelles pour s‘exprimer sur cette question, comme le rapporte l’AFP. Le dirigeant met en avant deux points saillants : les deepfake et la reconnaissance faciale. Cette dernière « peut être utilisée dans les nouvelles technologies d’assistance et les outils pour aider à trouver les personnes disparues. Mais elle peut aussi être utilisée avec des objectifs plus néfastes ».

De manière générale, il affirme qu’une « réglementation judicieuse doit adopter une approche proportionnée, en équilibrant les préjudices potentiels et les opportunités au niveau social ». « Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables », ajoute-t-il. 

Enfin, il invite les gouvernements à se saisir pleinement de cette question « plutôt tôt que tard ».

11 commentaires
Avatar de monpci INpactien
Avatar de monpcimonpci- 21/01/20 à 09:43:12

:troll: on peut peut-être lancer une IA à réfléchir sur le sujet :francais:

Avatar de janiko Abonné
Avatar de janikojaniko- 21/01/20 à 10:28:56

monpci a écrit :

:troll: on peut peut-être lancer une IA à réfléchir sur le sujet :francais:

Mouais, effectivement. Dans le même ordre d'idée, IBM a lancé il y a quelques mois un algorithme censé lutter contre les biais cognitifs des IA et autres machine-learning. Un algorithme pour surveiller un algorithme. Y a que moi que ça a fait rire, apparemment.

Bref.

Je suis d'accord avec Sundar : il faudrait réguler, et au plus vite. Malheureusement, à un niveau mondial, l'informatique est une des choses les plus difficiles à réguler. Exemple : quelqu'un arrive à dicter sa loi à Google ou Facebook ? La plupart du temps les initiatives ne font qu'effleurer la surface...

:fumer:

Édité par janiko le 21/01/2020 à 10:29
Avatar de spidermoon Abonné
Avatar de spidermoonspidermoon- 21/01/20 à 10:49:55

Il faut faire une commission et mettre une taxe :francais:

Avatar de skankhunt42 Abonné
Avatar de skankhunt42 skankhunt42 - 21/01/20 à 10:50:08

janiko a écrit :

Dans le même ordre d'idée, IBM a lancé il y a quelques mois un algorithme censé lutter contre les biais cognitifs des IA et autres machine-learning. Un algorithme pour surveiller un algorithme. Y a que moi que ça a fait rire, apparemment.

A partir du moment ou ton modèle de machine learning dispose de plusieurs couche c'est déja un algo qui surveille un algo... Et c'est aussi vieux que le monde en programmation traditionnelle, ça évite de coder des surcouche pour rien.

 

Avatar de janiko Abonné
Avatar de janikojaniko- 21/01/20 à 11:00:22

skankhunt42 a écrit :

A partir du moment ou ton modèle de machine learning dispose de plusieurs couche c'est déja un algo qui surveille un algo... Et c'est aussi vieux que le monde en programmation traditionnelle, ça évite de coder des surcouche pour rien.

Ca n'est pas là dessus que je voulais mettre l'accent. Je voulais dire que pour surveiller et corriger un algorithme dont on n'est pas sûr (peu importe le nombre de couches qu'il a), on va se fier à un autre algorithme dont on n'est pas plus sûr. En gros : pour corriger un biais, on va utiliser un programme qui potentiellement a aussi des biais. Qui va corriger les biais de l'algo qui corrige les biais ? Un autre algo ?

La question de la preuve formelle de bon fonctionnement d'un programme n'est pas simple...

Avatar de TheMyst INpactien
Avatar de TheMystTheMyst- 21/01/20 à 11:09:16

Who watches the watchmen? :phiphi:

Avatar de 127.0.0.1 INpactien
Avatar de 127.0.0.1127.0.0.1- 21/01/20 à 13:11:18

« Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables »

Traduction: "Il y a des opportunités business, mais la législation ne va pas assez vite. Laissez-nous écrire la loi à votre place, bande de limaces !"

Édité par 127.0.0.1 le 21/01/2020 à 13:11
Avatar de Uther Abonné
Avatar de UtherUther- 21/01/20 à 14:35:27

janiko a écrit :

Ca n'est pas là dessus que je voulais mettre l'accent. Je voulais dire que pour surveiller et corriger un algorithme dont on n'est pas sûr (peu importe le nombre de couches qu'il a), on va se fier à un autre algorithme dont on n'est pas plus sûr. En gros : pour corriger un biais, on va utiliser un programme qui potentiellement a aussi des biais. Qui va corriger les biais de l'algo qui corrige les biais ? Un autre algo ?

La question de la preuve formelle de bon fonctionnement d'un programme n'est pas simple...

En effet on a pas de système parfait, l'alternative que constitue l'être humain étant elle aussi pleine de biais et son encadrement par des être humain contrôleurs tout aussi susceptible de poser problème.

L'IA a cependant un meilleur potentiel d'amélioration que l'être humain.

Avatar de janiko Abonné
Avatar de janikojaniko- 21/01/20 à 14:56:27

Uther a écrit :

L'IA a cependant un meilleur potentiel d'amélioration que l'être humain.

Stricto sensu, je pense que tu as raison : l'IA est aujourd'hui tellement "bête" qu'elle a un sacré potentiel d'amélioration...
:fou:
Mais si je comprends bien ce que tu veux dire, à savoir que l'IA va s'améliorer énormément pour s'approcher ou dépasser l'être humain, moi je pense que non : l'IA est infiniment plus efficace, car cela permet un traitement d'une rapidité inaccessible aux humains, mais la seule intelligence introduite dans l'IA est celle que les développeurs ont apporté, la suite n'étant qu'une répétition algorithmique (donc mécanique), je le concède à des vitesses dépassant depuis longtemps ce qu'on est capable de faire.

Après, les misanthropes diront aussi que l'être humain est tellement :censored: qu'il n'est pas difficile de faire mieux.

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 21/01/20 à 17:05:25

Le problème principal est de définir "intelligence". A partir de quand tu considères que quelque chose est intelligent ?

Bien souvent derrière le terme d'intelligence on a une définition très philosophique de la chose, au contour vague qui permet de la modeler au besoin. Ainsi l'intelligence sert bien souvent un anthropocentrisme (l'intelligence de l'Homme lui permet de se distinguer des bêtes et de tout le reste) et du coup permet de bien flatter son égo.

Sinon, d'un point de vu purement biologique, un cerveau pourrait entre décomposé pour arriver à de simple réactions chimiques qui ne sont que purement mécanique. Si l'on fait fit des phénomènes aléatoires quantiques (qu'on peut au pire considéré comme négligeable grâce à de la loi des grands nombres), le cerveau humain est un objet déterministe. Et un objet déterministe, c'est représentable par une algorithme déterministe qui est exécutable sur n'importe quel machine de Turing. L'intelligence humaine ne serait finalement aussi qu'une répétition algorithmique.

Il n'est plus possible de commenter cette actualité.
Page 1 / 2