Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Intelligence artificielle : entre « opportunités et risques »Crédits : Zapp2Photo/iStock

C’est le Parlement européen qui se penche cette fois sur le sujet. L’institution rappelle que l’IA « peut amener de grands bouleversements (positifs ou négatifs) dans nos vies ». C’est ce qui l’a poussé « à fonder une commission qui examinera l’impact de cette technologie ».

Dans son communiqué, elle détaille les avantages pour les citoyens (santé, voitures, modes de transport plus sûrs, services moins coûteux, etc.), les entreprises (nouvelle génération de produits et service), les services publics, la démocratie (lutte contre la désinformation et les cyberattaques), etc.

De l’autre côté du miroir, « la sous-exploitation de l’IA est perçue comme un risque majeur » pour l’Europe. Il en est de même pour la sur-exploitation qui consisterait à « investir dans des applications IA qui n’ont pas d’utilité ou avoir recours à l’IA là où elle n’a pas sa place ».

« Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA », rappelle le Parlement. La question se pose notamment pour les voitures autonomes. 

Il y a également les risques liés « aux droits fondamentaux et à la démocratie », ainsi que l’influence sur l’emploi. Dernier point et pas des moindres, des « défis du point de vue de la transparence ».

15 commentaires
Avatar de tazvld Abonné
Avatar de tazvldtazvld- 30/09/20 à 09:28:49

Je propose de faire des statistiques pour optimiser l'exploitation de l'IA... ho wait ?!

Avatar de MeGusta INpactien
Avatar de MeGustaMeGusta- 30/09/20 à 09:35:07

Mais l'IA au départ elle est bien conçue par l'Humain non ? Un peu comme les algorithmes non ?

Avatar de gg40 INpactien
Avatar de gg40gg40- 30/09/20 à 10:03:04

MeGusta a écrit :

Mais l'IA au départ elle est bien conçue par l'Humain non ? Un peu comme les algorithmes non ?

Pour moi oui.
C'est parce que le dit algo est capable de modifier son comportement qu'il est intelligent.

Avatar de gg40 INpactien
Avatar de gg40gg40- 30/09/20 à 10:03:37

gg40 a écrit :

Pour moi oui. C'est parce que le dit algo est capable de modifier son comportement (dans le cadre admit par les dev) qu'il est intelligent.

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 30/09/20 à 10:19:22
MeGusta

Souvent, ce que l'on appelle IA aujourd'hui, c'est des algo de "machine learning" (apprentissage automatique). Ces algo ont la propriété de tirer avantage de l'expérience (d'une base de donnée) pour optimiser son comportement. Ces algo peuvent être aussi vu comme un truc qui fait des statistiques. En gros une "IA" va faire "D'après ma base de donnée (ou ce que j'en ai retenu), je prédis que ça devrait plutôt être ça".

Après, dans IA, on inclus d'autre type d'algo, plus classique mais qui n'est plus trop à la mode.Par exemple il y a les IA qui vont être mises dans les jeux (l'IA d'un jeu d'échec electronique par exemple), qui ne fait que suivre un algo classique (algo minmax avec élagage alpha-beta et simplifié avec un algo de Monte-Carlo pour un jeu d'echec), mais qui donne une impression d'intelligence ("houa ! elle a prédis mon coup!").

Avatar de MeGusta INpactien
Avatar de MeGustaMeGusta- 30/09/20 à 11:19:32

Donc la responsabilité reste bien à la charge de celui qui a produit le code d'origine...
C'est une façon pour les constructeurs de se dédouaner de leur responsabilité pénale en mettant à cause leur machine alors qu'elle est produite par leur usine ?
Mouarf.
Avec une arme à feu on se pose pas la question de savoir si c'est l'arme qui est responsable ou le tireur... Si c'est la voiture qui cause l'accident, c'est donc bien de la responsabilité de celui qui a implémenté l'autonomie dans le véhicule. A moins qu'ils veulent reporter sur le conducteur parce qu'au final, c'est lui qui a acheté un véhicule autonome et que donc il en devient responsable même s'il ne peut pas toucher au code ?

Avatar de tazvld Abonné
Avatar de tazvldtazvld- 30/09/20 à 12:00:13
MeGusta

Pour le cas de la voiture autonome, on est encore au niveau d'une "aide à la conduite", comme l'ABS, le régulateur de vitesse ou le park assist, il y a toujours un conducteur et le code de la route stipule que le conducteur est responsable de son véhicule. Je ne pense pas que l'on verra des voiture autonome entièrement sans conducteur (niveau 5) justement car personne ne veut en prendre la responsabilité.

A l'heure actuelle, à par pour faire des truc plutôt "innoçant", les algo d'apprentissage automatique sont surtout utiliser comme un outils d'aide à la décision. Par exemple, l'outil sera capable, en fonction des symptômes d'un patient d’établir des suggestions de diagnostique, mais ça sera toujours à un médecin de prendre la décision finale.

Sachant que ce n'est que des statistiques, le choix proposé est statistiquement le plus probable (selon l'algo), mais pas forcément le bon (99% de chance, ce n'est pas 100%). Intrinsèquement, on sait donc qu'un algo d'apprentissage automatique va faire des erreurs. Même si taux d'erreur réel est plus faible que celui d'un être humain, on ne veut pas prendre ce risque.

Avatar de MeGusta INpactien
Avatar de MeGustaMeGusta- 30/09/20 à 12:42:12
tazvld

Donc c'est l'utilisateur final le responsable alors...
Au fond ça parait logique, il signe un contrat qui décharge la société etc...
Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».

Avatar de Patch INpactien
Avatar de PatchPatch- 30/09/20 à 12:54:58

MeGusta a écrit :

Donc c'est l'utilisateur final le responsable alors... Au fond ça parait logique, il signe un contrat qui décharge la société etc... Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».

Pour le niveau 5 justement.
Actuellement, on ne sait pas qui serait désigné responsable d'un accident : le conducteur? Le constructeur? L'assureur? Autre? Et comme tout le monde se renvoie la balle pour ne pas l'être...

Avatar de MeGusta INpactien
Avatar de MeGustaMeGusta- 30/09/20 à 13:03:19
Patch

OK, pour moi ça englobait tous les niveaux.
A une époque, c'était la faute à pas de chance, au destin, à l'heure qui était venue... Maintenant il y a tellement d'assurances et de pognons en jeu que tout le monde se bat pour être celui qui va recevoir le magot et pas celui qui le paye...

Il n'est plus possible de commenter cette actualité.
Page 1 / 2