Publié dans Sciences et espace

15

Intelligence artificielle : entre « opportunités et risques »

Intelligence artificielle : entre « opportunités et risques »

C’est le Parlement européen qui se penche cette fois sur le sujet. L’institution rappelle que l’IA « peut amener de grands bouleversements (positifs ou négatifs) dans nos vies ». C’est ce qui l’a poussé « à fonder une commission qui examinera l’impact de cette technologie ».

Dans son communiqué, elle détaille les avantages pour les citoyens (santé, voitures, modes de transport plus sûrs, services moins coûteux, etc.), les entreprises (nouvelle génération de produits et service), les services publics, la démocratie (lutte contre la désinformation et les cyberattaques), etc.

De l’autre côté du miroir, « la sous-exploitation de l’IA est perçue comme un risque majeur » pour l’Europe. Il en est de même pour la sur-exploitation qui consisterait à « investir dans des applications IA qui n’ont pas d’utilité ou avoir recours à l’IA là où elle n’a pas sa place ».

« Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA », rappelle le Parlement. La question se pose notamment pour les voitures autonomes. 

Il y a également les risques liés « aux droits fondamentaux et à la démocratie », ainsi que l’influence sur l’emploi. Dernier point et pas des moindres, des « défis du point de vue de la transparence ».

15

Tiens, en parlant de ça :

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 1
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 5

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

Rogntudjuuu !

11:18 Soft 41
15

Fermer

Commentaires (15)


Je propose de faire des statistiques pour optimiser l’exploitation de l’IA… ho wait ?!


Mais l’IA au départ elle est bien conçue par l’Humain non ? Un peu comme les algorithmes non ?


Souvent, ce que l’on appelle IA aujourd’hui, c’est des algo de “machine learning” (apprentissage automatique). Ces algo ont la propriété de tirer avantage de l’expérience (d’une base de donnée) pour optimiser son comportement. Ces algo peuvent être aussi vu comme un truc qui fait des statistiques. En gros une “IA” va faire “D’après ma base de donnée (ou ce que j’en ai retenu), je prédis que ça devrait plutôt être ça”.



Après, dans IA, on inclus d’autre type d’algo, plus classique mais qui n’est plus trop à la mode.Par exemple il y a les IA qui vont être mises dans les jeux (l’IA d’un jeu d’échec electronique par exemple), qui ne fait que suivre un algo classique (algo minmax avec élagage alpha-beta et simplifié avec un algo de Monte-Carlo pour un jeu d’echec), mais qui donne une impression d’intelligence (“houa ! elle a prédis mon coup!”).



MeGusta a dit:


Mais l’IA au départ elle est bien conçue par l’Humain non ? Un peu comme les algorithmes non ?




Pour moi oui.
C’est parce que le dit algo est capable de modifier son comportement qu’il est intelligent.



gg40 a dit:


Pour moi oui. C’est parce que le dit algo est capable de modifier son comportement (dans le cadre admit par les dev) qu’il est intelligent.



Donc la responsabilité reste bien à la charge de celui qui a produit le code d’origine…
C’est une façon pour les constructeurs de se dédouaner de leur responsabilité pénale en mettant à cause leur machine alors qu’elle est produite par leur usine ?
Mouarf.
Avec une arme à feu on se pose pas la question de savoir si c’est l’arme qui est responsable ou le tireur… Si c’est la voiture qui cause l’accident, c’est donc bien de la responsabilité de celui qui a implémenté l’autonomie dans le véhicule. A moins qu’ils veulent reporter sur le conducteur parce qu’au final, c’est lui qui a acheté un véhicule autonome et que donc il en devient responsable même s’il ne peut pas toucher au code ?


Pour le cas de la voiture autonome, on est encore au niveau d’une “aide à la conduite”, comme l’ABS, le régulateur de vitesse ou le park assist, il y a toujours un conducteur et le code de la route stipule que le conducteur est responsable de son véhicule. Je ne pense pas que l’on verra des voiture autonome entièrement sans conducteur (niveau 5) justement car personne ne veut en prendre la responsabilité.



A l’heure actuelle, à par pour faire des truc plutôt “innoçant”, les algo d’apprentissage automatique sont surtout utiliser comme un outils d’aide à la décision. Par exemple, l’outil sera capable, en fonction des symptômes d’un patient d’établir des suggestions de diagnostique, mais ça sera toujours à un médecin de prendre la décision finale.



Sachant que ce n’est que des statistiques, le choix proposé est statistiquement le plus probable (selon l’algo), mais pas forcément le bon (99% de chance, ce n’est pas 100%). Intrinsèquement, on sait donc qu’un algo d’apprentissage automatique va faire des erreurs. Même si taux d’erreur réel est plus faible que celui d’un être humain, on ne veut pas prendre ce risque.


tazvld

Pour le cas de la voiture autonome, on est encore au niveau d’une “aide à la conduite”, comme l’ABS, le régulateur de vitesse ou le park assist, il y a toujours un conducteur et le code de la route stipule que le conducteur est responsable de son véhicule. Je ne pense pas que l’on verra des voiture autonome entièrement sans conducteur (niveau 5) justement car personne ne veut en prendre la responsabilité.



A l’heure actuelle, à par pour faire des truc plutôt “innoçant”, les algo d’apprentissage automatique sont surtout utiliser comme un outils d’aide à la décision. Par exemple, l’outil sera capable, en fonction des symptômes d’un patient d’établir des suggestions de diagnostique, mais ça sera toujours à un médecin de prendre la décision finale.



Sachant que ce n’est que des statistiques, le choix proposé est statistiquement le plus probable (selon l’algo), mais pas forcément le bon (99% de chance, ce n’est pas 100%). Intrinsèquement, on sait donc qu’un algo d’apprentissage automatique va faire des erreurs. Même si taux d’erreur réel est plus faible que celui d’un être humain, on ne veut pas prendre ce risque.


Donc c’est l’utilisateur final le responsable alors…
Au fond ça parait logique, il signe un contrat qui décharge la société etc…
Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».


anonyme_af010d7d2d9d79e648438d22ca1f808c

Donc c’est l’utilisateur final le responsable alors…
Au fond ça parait logique, il signe un contrat qui décharge la société etc…
Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».


Ce n’est pas vraiment un contrat (il n’a pas forcément signé), mais en gros oui, c’est ça.



Disons que cette histoire de responsabilité il y a plusieurs raison. Je vois par exemple que l’on est typiquement dans le cas de la responsabilité de ce que fait le code en particulier lorsque celui-ci va piocher dans une base de connaissance que l’on ne maîtrise pas forcément. Par exemple dans le cas d’un google bombing, est-ce que c’est google qui est responsable de l’association de Iznogood avec Sarkozy ? (oui, techniquement, l’algo de recherche est une IA qui va chercher à te proposer statistiquement les pages qui correspondent à la suite de mots recherché). Plus récemment, il y a eu l’IA de discussion de MS qui en à peine quelque heures sur Twitter a complètement dérapé.



MeGusta a dit:


Donc c’est l’utilisateur final le responsable alors… Au fond ça parait logique, il signe un contrat qui décharge la société etc… Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».




Pour le niveau 5 justement.
Actuellement, on ne sait pas qui serait désigné responsable d’un accident : le conducteur? Le constructeur? L’assureur? Autre? Et comme tout le monde se renvoie la balle pour ne pas l’être…


OK, pour moi ça englobait tous les niveaux.
A une époque, c’était la faute à pas de chance, au destin, à l’heure qui était venue… Maintenant il y a tellement d’assurances et de pognons en jeu que tout le monde se bat pour être celui qui va recevoir le magot et pas celui qui le paye…


Et comme tout ce petit monde risque de réclamer que nos routes respectent certaines normes suffisamment strictes pour pallier les aléas des IA… Qui c’est qui va y gagner perdre ? :craint:


Il y aussi la grande question des drones militaires… ça se déchire sur le sujet depuis 2 ans.
Doit on donner la possibilité à un drone militaire d’exécuter une cible sans validation d’un opérateur?



MeGusta a dit:


OK, pour moi ça englobait tous les niveaux. A une époque, c’était la faute à pas de chance, au destin, à l’heure qui était venue… Maintenant il y a tellement d’assurances et de pognons en jeu que tout le monde se bat pour être celui qui va recevoir le magot et pas celui qui le paye…




On a déjà des voitures autonomes de niveau 1 et 2, et le niveau 3 n’est pas loin chez certains constructeurs (même si pas encore autorisé au moins en France).
Donc heureusement qu’on n’a pas attendu ca pour les autoriser sur nos routes :D



darkjack a dit:


Il y aussi la grande question des drones militaires… ça se déchire sur le sujet depuis 2 ans. Doit on donner la possibilité à un drone militaire d’exécuter une cible sans validation d’un opérateur?




Quelle question franchement, 2 ans pour ça… bien-sur que dans un salon d’expo le drone ne doit pas tirer sans la validation d’un opérateur. :D