du 11 juin 2018
Date

Choisir une autre édition

Les grands principes de Google sur l'intelligence artificielle

La question de l'IA est au centre des préoccupations du géant du Net, mais aussi (et surtout ?) de plusieurs milliers de ses employés qui ont fait part de leurs inquiétudes et mécontentement dans une lettre publiée par New York Times.

Suite à des départs, le géant du Net expliquait récemment qu'il ne renouvellera pas sa participation au Projet Maven sur l'intelligence artificielle pour l'imagerie vidéo, dont un des débouchés pourrait être en lien avec les drones de l'armée.

En fin de semaine dernière, Sundar Pichai (PDG de Google) s'est exprimé publiquement avec un billet de blog. Il détaille sept points de la nouvelle charte maison sur le sujet :

  • Être socialement bénéfique
  • Éviter de créer ou de renforcer un parti pris
  • Être pensé et testé pour la sécurité
  • Faire face à ses obligations
  • Être responsable envers les gens
  • Prendre en compte dès le départ les principes de confidentialité
  • Maintenir des normes élevées d'excellence scientifique

L'intelligence artificielle doit être mise à disposition pour des utilisations conformes à ces principes. Le PDG affirme ensuite que la société ne concevra et ne déploiera pas d'intelligence artificielle dans plusieurs domaines d'applications, notamment ceux susceptibles de causer « un dommage global ».

Les armes et autres technologies « dont le but principal ou la mise en œuvre est de causer ou de faciliter directement les blessures aux personnes » sont également proscrites, ainsi que les « technologies contrevenant aux principes largement acceptés du droit international et des droits de l'homme ».

chargement Chargement des commentaires...