Depuis plusieurs mois maintenant, le géant du Net intensifie son lobbying autour de ses principes sur l'intelligence artificielle. L'actuel PDG de Google avait ainsi publié un billet de blog en juin.
Il y détaillait les sept points de la charte maison : socialement bénéfique, pensé et testé pour la sécurité, responsable envers les gens, etc. Plus récemment, c'est d'équité dont il était question.
Lors d'une interview au Washington Post, il reconnaît que les inquiétudes autour de l'IA sont « très légitimes » et appelle les sociétés à se responsabiliser sur le sujet : « Je pense que la technologie doit réaliser qu'elle ne peut pas simplement la construire, puis la réparer. Je pense que ça ne marche pas ».
« Parfois, je crains que les gens sous-estiment l'ampleur des changements possibles à moyen et long terme, je pense que ces questions sont en réalité assez complexes », ajoute-t-il. Dans le même temps, les bénéfices peuvent être très importants.
« Réguler une technologie à ses débuts est difficile, mais je pense que les entreprises devraient s'autoréguler. C’est la raison pour laquelle nous nous sommes efforcés d’énoncer un ensemble de principes d’IA. Nous n’avons peut-être pas tout compris, mais nous pensons qu’il était important de commencer un dialogue ».
En attendant un éventuel organe indépendant , Google promeut l'autorégulation et veut être un moteur de discussions sur ce thème. Il n'était pas question non plus de laisser trop de champ à Microsoft, qui s'est exprimé récemment sur un code de conduite pour la reconnaissance faciale.