Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Alexa, Google Assistant et Siri : de trop nombreux mots pour les déclencher, la vie privée en pâtit

Une équipe conjointe de chercheurs de l’université de la Ruhr et de l’Institut Max Plank pour la Sécurité et la Vie privée (tous deux situés à Bochum, Allemagne) a publié mardi une partie des résultats de ses recherches portant sur les assistants vocaux. Et les nouvelles ne sont pas bonnes.

Ils ont travaillé sur les versions anglaises et trouvé plus d’un millier de combinaisons de mots déclenchants la détection vocale. Exemples :

  • Alexa : « unacceptable », « election, » et « a letter »
  • Google Home : « OK, cool » et « Okay, who is reading »
  • Siri : « a city » et « hey jerry »
  • Cortana : « Montana »

Les chercheurs ont également publié des vidéos où l’on peut observer des illustrations concrètes du problème. Dans l’une, on peut voir par exemple une personne de Game of Thrones prononcer « a letter » et déclencher Alexa, dans l’autre un personnage de Modern Family dire « hey Jerry » et déclencher Siri.

Les chercheurs pointent des algorithmes conçus spécifiquement pour être tolérants, s’activant sur des séquences de sons qui pourraient être interprétées comme des commandes vocales. Des algorithmes permissifs pour que les produits soient simples à utiliser.

Ce qui est gagné en facilité est toutefois perdu en vie privée, puisque chaque activation d’assistant vocal envoie des extraits de ce qui est capté aux serveurs des sociétés concernées. Et de rappeler qu’à chaque fois, des employés peuvent être amenés à écouter ces extraits.

L’étude complète n’a pas encore été publiée. Elle contiendra des résultats sur d’autres assistants, notamment ceux de Deutsche Telekom et de trois Chinois, Xiaomi, Baidu et Tencent.

Interrogée à ce sujet par Ars Technica, Amazon a finalement répondu ne pas avoir eu « l’opportunité d’analyser la méthodologie derrière cette étude pour valider la justesse de ces affirmations ». La société ajoute : « De par sa conception, notre détection du mot d’éveil et notre reconnaissance vocale s’améliorent chaque jour – nous optimisons les performances au fur et à mesure que les clients utilisent leurs appareils ».

2 commentaires
Avatar de tontonCD INpactien
Avatar de tontonCDtontonCD- 04/07/20 à 07:56:00

et encore je ne vois pas d'exemple français, on peut imaginer respectivement

  • érection
  • oh, quel gogo
  • la Syrie
  • encore t'en as
Avatar de Cumbalero Abonné
Avatar de CumbaleroCumbalero- 05/07/20 à 13:24:49

On rigole pas mal au taf en nous adressant à travers l'openspace à notre collègue Cyrille.

Il n'est plus possible de commenter cette actualité.