Windows 10 pourra suivre le mouvement des yeux pour piloter l'interface

Windows 10 pourra suivre le mouvement des yeux pour piloter l’interface

D'une simple lettre

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

03/08/2017 6 minutes
21

Windows 10 pourra suivre le mouvement des yeux pour piloter l'interface

Avec la Fall Creators Update, Windows 10 intègrera le suivi des mouvements des yeux. La préversion 16257, parue hier soir, introduit cette prise en charge, avec un seul équipement pour l’instant. Selon Microsoft, cet ajout ouvre la voie à une plus grande facilité d’utilisation du système pour certains handicaps.

Cette intégration répond à un défi lancé en 2014 par un ancien joueur professionnel de baseball, Steve Gleason. Atteint de la maladie de Charcot (sclérose latérale amyotrophique, ou SLA) – la même dont est atteint le physicien Stephen Hawking – il avait envoyé un email à Microsoft pendant le premier hackaton organisé par l’éditeur.

L’ancien sportif profitait de cet évènement pour faire sa demande : faciliter l’utilisation des ordinateurs en tenant compte de certains handicaps très lourds. La SLA provoque en effet une dégénérescence progressive des motoneurones et donc une paralysie qui s’étend à tout le corps avec le temps, finissant par toucher les poumons et provoquer le décès. Les yeux, puisque c’est bien d’eux dont il s’agit, deviennent alors le seul « muscle » exploitable pour effectuer des actions.

Une équipe dédiée

Toujours durant le même hackaton, une équipe s’est constituée autour de la demande du sportif, l’Ability Eye Gaze. En quelques jours, elle a créé l’Eye Gaze Wheelchair, un fauteuil roulant équipé d’un appareil pouvant suivre les mouvements des yeux et les traduire en instructions. Résultat, le fauteuil électrique peut se déplacer sans actionner la moindre manette. L’équipe a d’ailleurs remporté le hackaton parmi plus de 3 000 projets.

Après l’évènement, l’équipe n’a pas été dissoute mais a continué de travailler avec l’association de Steve Gleason et Evergreen ALSA, deux structures venant en aide aux malades de SLA. Elle a commencé par définir un certain nombre de scénarios d’utilisation, jusqu’à ce que la Windows Team examine le tout et décide de plonger ses mains dans le cambouis.

Environ trois ans plus tard, l’éditeur est donc prêt à parler de son Eye Control.

Une ébauche dans la dernière préversion

La build 16257, diffusée hier dans le canal rapide pour les testeurs Insiders, contient les premières briques de cette technologie. Elle n’est pour l’instant compatible qu’avec un seul appareil, l’Eye Tracker 4C de Tobii. Viendront ensuite les Dynavox PCEye Mini, PCEyePlus, EyeMobile Plus et toute la série I, toujours du même constructeur.

Pour tester la technologie, il faudra donc forcément avoir l’un de ces périphériques. Il faut également télécharger la dernière version du pilote et lancer l’outil de calibration. Après quoi, Windows Update devra récupérer un autre pilote (Tobii Eye Tracker HIDClass Driver). Enfin, l’utilisateur activera la technologie en se rendant dans Paramètres, Options d’ergonomie, Autres options et Eye Control.

Dans tous les cas, la version finale de la Fall Creators Update (FCU) devrait contenir une technologie prête à l’emploi et supportant tous les appareils mentionnés. L’éditeur se dit prêt à travailler avec tous les autres constructeurs qui se montreront intéressés.

Et concrètement ?

Dès qu’Eye Control est actif, une petite barre spécifique apparaît en haut de l’écran. Elle est là pour changer de mode, par exemple pour passer de la souris à la saisie de texte ou au text-to-speech.

Globalement, le principe de fonctionnement est celui que l’on imagine : le curseur de la souris apparaît là où se posent les yeux. Il suit en fait le mouvement des yeux, sans se « téléporter ». Une fois positionné, le fait de le laisser attendre un instant fait apparaitre un menu dans lequel on choisit alors une action. Notez que le temps d’attente est paramétrable, avec cinq niveaux. Par défaut, la sélection est sur le niveau 3.

Même fonctionnement que pour le clavier virtuel, où la prédiction jouera un grand rôle pour éviter d’avoir à saisir chaque lettre, le curseur devant attendre sur chaque lettre pour provoquer sa saisie. Cependant, un mode « glissement » est aussi disponible. On glisse donc d’une lettre à l’autre, le système cherchant à deviner les mots ainsi formés. Les utilisateurs de SwiftKey savent que ce mode de saisie peut se montrer efficace.

Personne ne dira bien sûr que Microsoft a inventé ce type de technologie. L’intégration dans Windows représente par contre une opportunité, puisque les utilisateurs pourront compter sur une rationalisation de l’expérience et donc des actions qu’ils peuvent entreprendre. À voir donc si d’autres constructeurs montrent de l’intérêt, ce qui risque bien d’arriver, au risque sinon de laisser Tobii comme seul à être mis en avant.

windows 10 eye tracking control

Quelques autres petites améliorations

Notez que nouvelle préversion oblige, d’autres nouveautés sont quand même à signaler, même si elles n’ont pas l’importance du suivi des yeux.

C’est notamment le cas d’Edge qui a déjà reçu un très grand nombre d’améliorations dans les dernières préversions. Cette fois, elles sont essentiellement visuelles avec l’arrivée du Fluent Design System. Il se manifeste par l’utilisation d’Acrylic dans la barre des onglets dépliée (fond semi-transparent) et de nouvelles animations pour les boutons. Pour ceux qui n’auraient pas suivi l’avancée de la branche Redstone 3 (nom interne de la FCU), le Fluent Design System est progressivement déployé dans les applications internes, avec plus ou moins de bonheur.

Outre les habituelles corrections de bugs, Microsoft annonce avoir modifié les couleurs par défaut de sa console, ce que l’éditeur n’avait pas fait « depuis plus de 20 ans ». Les utilisateurs pourront donc varier les plaisirs, mais surtout en utilisant des couleurs plus sombres, donc moins agressives sur les écrans modernes.

Comme toujours avec le programme Windows Insider, il faut y être inscrit (compte Microsoft requis) et l’activer dans les options de Windows Update. La dernière préversion se récupère alors comme une mise à jour puis s’installe. Une opération qui peut être assez longue, selon la connexion et le type d’unité de stockage. La version finale de la FCU devrait être prête en septembre, mais ne sera probablement distribuée publiquement qu’avec le Patch Tuesday d’octobre (comme la Creators Update, prête en mars et diffusée en avril). 

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une équipe dédiée

Une ébauche dans la dernière préversion

Et concrètement ?

Quelques autres petites améliorations

Fermer

Commentaires (21)


Il me semble que S.Hawking a mit son système en open source non ? Pourquoi réinventer la roue ?


Ce n’est pas la même chose, enfin pas complètement à ce que j’en ai lu : ici, on parle de détecter le mouvement des yeux pour piloter l’OS, alors que pour Hawking, Intel utilise (ou utilisait car sa maladie  évolue ,donc eux aussi) un bandeau qui détectait la contraction de certains de ses muscles faciaux.

Après, ce sont deux technologies qui servent à piloter un OS avec une détection/interprétation de mouvement.








Calvi VI a écrit :



Ce n’est pas la même chose, enfin pas complètement à ce que j’en ai lu : ici, on parle de détecter le mouvement des yeux pour piloter l’OS, alors que pour Hawking, Intel utilise (ou utilisait car sa maladie  évolue ,donc eux aussi) un bandeau qui détectait la contraction de certains de ses muscles faciaux.

Après, ce sont deux technologies qui servent à piloter un OS avec une détection/interprétation de mouvement.





Il contrôle son INterface vocale à l’aide d’un clavier visuel (mouvement des yeux). C’est exactement pareil.<img data-src=" />



J’avais testé ACAT (intel/hawking) avec une simple webcam pour tester si ca pouvais convenir a ma tante qui ne peux plus utiliser de clavier physique (uniquement clavier virtuel avec une souris trackball), et ca fonctionne bien mais le principe meme du logiciel est ultra laborieux pour ecrire et meme pour utiliser la souris.

Là, certes ca va couter beaucoup plus cher (j’ai vu 250€ mini sur le site), mais j’espere que ce sera plus ergonomique et plus rapide.


une initiative très, très honorable <img data-src=" /> <img data-src=" />


pas sur, Acat ca passe automatiquement de groupe de lettres en groupe de lettres et quand ca passe sur le groupe que tu veux tu fais un mouvement musculaire facial, puis tu recommence pour choisir la lettre que tu veux, c’est trèèèèèèès long.

La ca serait apparemment du vrai eye tracking.








UtopY-Xte a écrit :



J’avais testé ACAT (intel/hawking) avec une simple webcam pour tester si ca pouvais convenir a ma tante qui ne peux plus utiliser de clavier physique (uniquement clavier virtuel avec une souris trackball), et ca fonctionne bien mais le principe meme du logiciel est ultra laborieux pour ecrire et meme pour utiliser la souris.

Là, certes ca va couter beaucoup plus cher (j’ai vu 250€ mini sur le site), mais j’espere que ce sera plus ergonomique et plus rapide.





<img data-src=" />



Étape suivante :




  • se contenter d’une simple webcam

  • activation par défaut

  • facturer les annonceurs pour les publicités effectivement vue par les cerveaux disponibles


250€ si ça permet aux personnes souffrant d’un tel handicap d’utiliser l’ordinateur, ce n’est RIEN.

A titre d’information, ma belle-soeur est en fauteuil roulant électrique. Lequel coûte entre 10 et 15 000€. Et doit être changé tous les 4 ans environ (évolution de la pathologie & apparitions de pannes multiples, c’est achement fragile ces petites bêtes là…)

&nbsp;


Il parait que pornhub développe une solution de navigation à la baguette.



<img data-src=" />




. L’intégration dans Windows représente par contre une opportunité, puisque les utilisateurs pourront compter sur une rationalisation de l’expérience et donc des actions qu’ils peuvent entreprendre.





Je vois déjà plein d’opportunités








CryoGen a écrit :



Il parait que pornhub développe une solution de navigation à la braguette.







<img data-src=" />



Si je ne dis pas de bêtises, le contestation avait été remporté et de portant la détection sur un kinect ? Parce que j’ai vu quelque chose dans le genre pour piloter une partie de l’OS.


Je suis l’évolution de ces technologies de pilotage/détection aussi, pour une personne de ma famille qui ne peut pas se servir d’une souris, ni articuler suffisamment pour utiliser un assistant vocal.

J’espère que ces avancées vont continuer à s’accélérer&nbsp; pour permettre une démocratisation (financière s’entend) pour le grand public.

Après, comme tu le dis, si l’ergonomie et l’efficacité sont là, ben… on dira que le prix n’est pas si cher que ça par rapport au confort quotidien que ça procure.

On va attendre de voir la suite et les retours utilisateurs.








CryoGen a écrit :



Il parait que pornhub développe une solution de navigation à la baguette.



<img data-src=" />





Faudra un bon système d’etalonnage des instruments. La mienne penche toujours a gauche.



1010



<img data-src=" />








XXC a écrit :



Étape suivante :




  • se contenter d’une simple webcam

  • activation par défaut

  • facturer les annonceurs pour les publicités effectivement vue par les cerveaux disponibles





    C’est à ça que je pense aussi. Mais je vois le mal partout il paraît. <img data-src=" />

    Sinon, hackable facilement avec un petit morceau de scotch.<img data-src=" />



Je ne suis pas sur que ce soit vraiment rentable pour les régis de pub.



Le résultat &nbsp;pourrait montrer que peut de pub sont regardées.


Dans ce cas on rajoute l’option “affichage sous le regard” pour forcer la main l’oeil <img data-src=" />








CryoGen a écrit :



Il parait que pornhub développe une solution de navigation à la baguette.



<img data-src=" />







:oui2:



comme on peut le voir sur ici : <img data-src=" />






Pas con <img data-src=" />