Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

You're in the army now

Avatar de l'auteur
Vincent Hermann

Publié dans

Société numérique

26/02/2019 10 minutes
22

Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

Microsoft a présenté dimanche soir son HoloLens 2. Dans les grandes lignes, le produit est tel que présenté dans les nombreuses rumeurs à son sujet. L’orientation attendue vers le grand public est cependant écartée. Divers partenariats et Azure Kinect étaient également de la partie.

C’est peu dire que Microsoft était attendue au tournant. Bien que très peu présent dans le quotidien, le premier HoloLens a marqué son temps et a offert de nombreux débouchés à la firme. Reprenant le concept de réalité mixte cher à la société, le HoloLens est capable de réalités augmentée et virtuelle.

Les applications sont nombreuses, tout particulièrement dans l’industrie et plus généralement le monde professionnel. Un installateur de rampes mécanisées pour personnes âgées peut par exemple regarder l’escalier avec le casque, les caméras prenant toutes les mesures. De retour au bureau, son logiciel peut les exploiter.

Apprendre à conduire un engin particulier, donner des informations sur ce que l’on regarde, provoquer des rappels sur une action en cours font partie de ses attributions. Par exemple, examiner une machine et obtenir des informations sur les pièces qui la composent, ou regarder un cockpit d’avion et avoir instantanément des détails sur les commandes.

Mais le premier HoloLens commençait à accuser son âge. Présenté en 2015, il embarquait un processus Atom, bien loin de fournir la puissance que l’on attend aujourd’hui de ce genre d’équipement (Microsoft n’a pas inventé la réalité augmentée après tout). Les rumeurs gonflaient ces derniers mois, et il ne faisait plus de doute que la firme allait présenter un successeur juste avant que ne commence le Mobile World Congress. Dont acte.

Un passage attendu au Snapdragon 850

Un peu de technique d’abord. Le nouveau HoloLens 2 inclut un SnapDragon 850 de Qualcomm pour servir un besoin accru de puissance sans pour autant vider la batterie. Contrairement à ce que l’on aurait pu attendre, le casque ne pourra pas communiquer en 4G, bien que le SoC intègre nativement un modem.

Durant la présentation, il a simplement été précisé que la 4G n’était pas vraiment une requête des clients, qu'elle aurait un impact négatif sur l’autonomie et la température de fonctionnement. On trouve en revanche du Bluetooth 5 et du Wi-Fi 5 (802.11ac, 2x2 comme sur le premier HoloLens) avec un débit non précisé.

Ce changement de puce permet à Microsoft de répondre à son premier objectif majeur : produire un casque capable de sortir de veille beaucoup plus vite. Le SnapDragon 850 reprend l’architecture big.LITTLE d’ARM, contenant à la fois des cœurs d’exécution pleines performances mais gourmands en énergie, et d’autres aux capacités réduites mais beaucoup plus économes. Ces derniers permettent de maintenir les tâches de fond pendant la veille du produit.

Le SoC est accompagné par une deuxième version du HPU (Holographic Processing Unit), qui intègre lui-même un coprocesseur dédié à l’intelligence artificielle, sans que l'on sache vraiment de quoi il en retourne dans la pratique. Le casque reste bien sûr indépendant, ne requérant aucune connexion physique à un ordinateur pour fonctionner.

L’autonomie annoncée est d’environ 3 heures, soit la même que pour le premier modèle. Difficile d’établir une comparaison immédiate, tant les capacités du nouveau modèle sont supérieures au premier. Le produit n’étant de toute façon pas encore disponible, difficile d’en savoir plus pour l’instant.

HoloLens 2

Un casque plus léger, des angles de vue plus grands

Microsoft ne donne pas beaucoup de détails, mais le HoloLens 2 est plus petit et plus léger que le premier du nom (566 grammes contre 579 grammes). C’était le deuxième axe majeur de développement : le rendre plus confortable.

Ce confort accru vient surtout d’une répartition différente des composants. Sur le premier modèle, toute l’optique, les unités de calcul ou encore les capteurs étaient devant. Sur le HoloLens 2, toute la partie « calcul » est derrière avec la batterie. Un meilleur équilibre qui « parlera » immédiatement à toute personne ayant testé le HoloLens, tant le poids sur l’avant de la tête était sensible, nécessitant une période d’adaptation et des réglages.

La partie avant, désormais en fibres de carbone, n’embarque donc plus que l’optique et les capteurs, la première pouvant d’ailleurs être remontée afin de dégager la vue sans avoir besoin de retirer tout le casque.

HoloLens 2HoloLens 2

L’optique et les capteurs justement ont bénéficié d’une nette amélioration. Le champ visuel est décrit comme doublé, chaque œil ayant un écran de 2 000 x 1 500 pixels. Le HoloLens 2 maintient les 47 pixels par degré d’angle de vue, ce qui assure normalement à l’utilisateur de ne pas distinguer les pixels et d’avoir des courbes lisses sans insister sur l’anticrénelage. Il faudra cependant que Microsoft fournisse des chiffres plus précis.

Des améliorations prévisibles pour répondre aux demandes de l'armée avec qui Microsoft a signé un important contrat de 480 millions de dollars en novembre dernierDécrié aujourd'hui au sein-même de l'entreprise, il prévoyait notamment la fourniture de 100 000 casques aux capacités techniques dépassant de loin celles du premier HoloLens.

Côté capteurs, on note l’arrivée d’un apport majeur : le HoloLens 2 peut suivre les mouvements de l’œil. Les possibilités sont nombreuses, du renseignement apporté à l’objet regardé sans tourner le casque pour y faire face ou encore faire défiler le contenu d’une page. En outre, le capteur peut procéder à une identification rétinienne de l’utilisateur.

La reconnaissance des mains est également beaucoup plus précise, le casque procédant à une modélisation articulée de chaque doigt. L’amélioration autorise des manipulations d’objets plus directes, le casque s’occupant de gérer les interactions entre plusieurs modèles 3D précalculés.

Quant au reste des caractéristiques, on note une connexion USB 3.0 Type-C pour recharger le casque, une grille de cinq micros pour capter le son, des haut-parleurs intégrés, une caméra 8 mégapixels (1080p en 30 ips), ainsi que les classiques accéléromètre, gyroscope et magnétomètre.

Le HoloLens 2 reste un casque pensé pour le monde de l’entreprise

En dépit des rumeurs, le nouveau casque garde une orientation résolument professionnelle. Attendu pour « plus tard dans l’année », le HoloLens 2 sera vendu à un prix d’appel de 3 500 dollars, les précommandes étant déjà ouvertes dans plusieurs pays, dont la France. C’est moins que les 5 000 dollars du premier modèle, mais on est très loin d’un produit accessible au grand public. Un abonnement intégrant Dynamics 365 Remote Assist sera proposé à 125 dollars par mois.

Une orientation parfaitement assumée, au point que le HoloLens 2 a bénéficié d’une conception plus modulaire, afin que des entreprises puissent le reprendre et en fabriquer des versions spécialisées, via son programme de personnalisation. Trimble va par exemple produire des casques de chantier intégrant le matériel :

HoloLens 2Rien n’empêche dans l’absolu des éditeurs de s’atteler à développer des jeux pour HoloLens 2. Mais de la même manière qu’ils étaient surtout exploitables sur les casques de réalité mixte des partenaires, il va falloir attendre de voir si Microsoft propose un nouveau modèle de référence pour une deuxième génération de produits plus accessibles.

Disponibles pour la plupart entre 300 et 500 euros, ils avaient pour principale différence de déporter tous les calculs sur l’ordinateur. Ce qui affranchissait du problème de puissance, mais nécessitait une connexion filaire, comme dans le cas du modèle Acer que nous avions pris en main.

En matière de développement justement, le passage au SnapDragon 850 ne change presque rien. Le système présent sur HoloLens 2 est toujours Windows 10 (on ARM). Tous les applicatifs créés pour le premier casque restent compatibles.

Notez que Microsoft a annoncé un nouveau venu dans l’offre Dynamics 365. Nommée Guides, cette application de réalité mixte doit favoriser l’apprentissage par la pratique en apportant des instructions (textes, photos, vidéos, hologrammes) sur l’activité en cours. Elle est pour l’instant disponible en préversion.

Des partenariats et une marque d’ouverture

Après la présentation du produit venait la traditionnelle séance d’annonces de partenariats.

Tim Sweeney, fondateur et PDG d’Epic Games, est ainsi monté sur scène pour confirmer que l’Unreal Engine allait prendre en charge le HoloLens 2. Le moteur pourra donc être utilisé dans des solutions professionnelles, ou tout simplement pour des jeux si ce secteur devait se développer pour le produit.

L’annonce est d’autant plus amusante que le même Sweeney avait fustigé Windows 10 S pour son absence de gestion de Win32, accusant Microsoft de vouloir écraser les autres boutiques. À propos de boutique, Mozilla a annoncé que Firefox débarquerait lui aussi sur HoloLens. Et non seulement comme une solution alternative à Edge (qui reste en place), mais aussi via une distribution par le Microsoft Store.

Le géant américain pourrait donc bien être en train de préparer un changement profond pour sa boutique. Si Firefox y débarque effectivement, c’est qu'elle compte s'ouvrir aux navigateurs tiers. Ce n’est pas le cas actuellement, puisque toute application doit impérativement passer par le moteur EdgeHTML si elle veut effectuer un rendu web.

C'est donc peut-être le signe d’annonces à venir, l’éditeur n’ayant pas encore donné le détail des changements qui attendent le Store une fois le nouvel Edge sorti. Peut-être compte-t-il basculer le rendu web par défaut sur Chromium sans pour autant bloquer l’installation de navigateurs tiers.

Le capteur Azure Kinect désormais disponible pour 399 dollars

Lorsque le Project Kinect for Azure a été présenté l’année dernière à la conférence Build, Microsoft avait précisé que les capteurs optiques embarqués étaient les mêmes que dans la prochaine itération de HoloLens. Puisque cette dernière est officielle, l’Azure Kinect devient disponible.

Le produit embarque deux caméras, une de 12 mégapixels RGB et une autre de 1 mégapixel dédiée à la profondeur de champ. Une grille de sept micros est présente pour la spatialisation du son, ainsi que des capteurs d’orientation. Le tout se branche via un port USB 3.0 Type-C et est compatible avec Windows 10 et Ubuntu.

Les dimensions sont de 12,6 x 10,3 x 2,5 cm pour un poids de 440 g. La fiche produit mentionne une information précise : l’Azure Kinect est fait pour fonctionner à une température en 10 et 25 degrés. Un kit de développement largement orienté vers le cloud et la reconnaissance d’image est fourni. Ce qui n’étonnera personne, au vu du nom du produit.

Il est vendu 399 dollars, uniquement aux États-Unis pour l’instant. Microsoft précise qu’il se destine aux entreprises et développeurs, pas au grand public. Ce n’est donc pas un remplaçant de l’ancien Kinect pour la Xbox, ce que l’on pouvait deviner avec la connectique utilisée.

Microsoft Azure Kinect

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un passage attendu au Snapdragon 850

Un casque plus léger, des angles de vue plus grands

Le HoloLens 2 reste un casque pensé pour le monde de l’entreprise

Des partenariats et une marque d’ouverture

Le capteur Azure Kinect désormais disponible pour 399 dollars

Fermer

Commentaires (22)


Pour l’Hololense 2 : je n’attends pas à voir débarquer tout de suite l’AR grand public, mais c’est selon moi l’une des branches de possible avenir dans l’interface homme-machine.

Les “coprocesseur dédié à l’intelligence artificielle” me semble assez logique dans un tel appareil. J’imagine que ce sont des TPU (tensor process unit), pour les réseaux de neurones artificiels. Ces derniers sont en effet très efficace dans la reconnaissance d’objet dans des images et je les vois donc très bien utiliser pour le tracking des mains/doigt que pour identifier et localiser dans l’espace les objets dans l’environnement.



Pour l’Azure Kinect :

Putain, MS, je n’ai pas acheté de Kinect 2 pour mon PC car ce n’était pas utilisable comme une webcam alors que les démo ont montré toutes la puissance de ces capteurs pour un tel usage. Si un jour MS sort une webcam avec de bon capteur (donc celui de profondeur), et surtout un SDK qui permet entre autre de modifier à la volé le flux de la webcam, j’achète. Derrière, il peuvent même pousser leur solution CNTK pour faire du Deep Learning à la volée sur les image. Pour vous donner un idée de ce qui pourrait être fait : amélioration des images avec une très faible exposition, mais on peut imaginer plein de truc en utilisant par exemple ce systeme de reconstruction de model 3D du visage.



il y a aussi la flopée de micro qui permet de spécialiser l’origine son, et donc très certainement de filtrer uniquement la voix de l’interlocuteur par exemple….








tazvld a écrit :



Pour l’Hololense 2 : je n’attends pas à voir débarquer tout de suite l’AR grand public, mais c’est selon moi l’une des branches de possible avenir dans l’interface homme-machine.



L’AR et la VR <img data-src=" /> (c’est un casque à réalité mixte)

Les 2 pour moi sont des éléments qui pourraient se développer dans le futur.



Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />








zogG a écrit :



Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />



Il fait réalité augmentée ET réalité virtuelle en plus de l’augmentée. Donc réalité mixte pour lui <img data-src=" />

Mais oui tant qu’on n’aura pas un truc de la taille des Google Glass, ca sera dur de le développer en masse.









zogG a écrit :



Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />





Vu les prix annoncés, de toute façon, rien ne peut être qualifié de grand public. <img data-src=" />



L’IA doit très certainement être la pour entraîner la reconnaissance d’objet et les mains des utilisateurs.

Pour ce qui est de lAzure Kinect. Normalement, le Kinect 2 de la Xbox ONE devait être compatible et ouvert aux bidouiller, non ? Vu que c’est aussi ça qui avait tant démocratisé le premier, bien plus que les jeux à mon avis.


Un truc plus fin et plus puissant avec une AR plus réactif et moins pixelisé, alors oui… On pourra jouer à des jeux sur pc sans avoir un problème d’écran et en ayant une plus grande immersion que les télés 3D…

Imagine faire du minority report avec des matrices Excel en trois dimensions, des irm en 3D… Cette techno a un tel potentiel, tu peux être dans la vie réelle, avoir accès en un regard vers le haut à la musique que tu écoutes, aux dernières nouvelles, dans le tram tu regardes un film sans pour autant être absorber par l’appareil etc… Le jour où ça sort pour le grand public, adieu les écrans (télé, tablette, écran d’ordi et même téléphone…


le casque microsoft que j’ai acheté s’appelle WMR Windows Mixed Réalité :o mais c’que de la VR :o car bon soit y a les caméras mais en noir et blanc de qualité médiocre pour pas se prendre les murs dur de faire de l’AR


Enfin une vrai amélioration, le champ de vision, la visière qui se relève et le poids sur les muscles du cou et de la nuque rendaient l’utilisation en professionnel quasi impossible… Pour l’avoir vu à l’œuvre chez Safran et dans quelques bureaux d’études c’est un vrai plus !



Côté montage, démontage, maintenance en atelier ou chez le client c’est très utile, le casque scanne le numéro de série du produit seul, identifie la zone devant l’utilisateur et propose plusieurs visions et actions possibles. L’opérateur devient autonome pour des tâches très complexes et en cas de soucis il peut appeler une sorte de support avancé qui pourra projeté des informations directement devant la personne.

Idem côté conception, insérer un mannequin dans un 3D pour voir s’il passera facilement l’outil pour accéder à tel pièce était très très laborieux… Alors qu’avoir une pièce ou voir la machine en 3D et tester par soi même ouvre de nombreuses possibilités.



Dont acte, j’ai hâte de voir les Catia, Autodesk, PTC et Siemens se saisir de ce produit qui promet vraiment de super gains !








Patch a écrit :



L’AR et la VR <img data-src=" /> (c’est un casque à réalité mixte)

Les 2 pour moi sont des éléments qui pourraient se développer dans le futur.





Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.

L’AR Me semble au contraire bien plus intéressante car son usage par dessus la réalité permet d’intégrer directement l’interface dans notre réalité.



Une interface homme-machine a pour but selon moi de rendre le plus simple et naturel les interaction avec la machine. Ainsi, l’UI n’est pas une fins en soit, mais un moyen. Son évolution doit aller vers sa “disparation”. Or dans l’AR, c’est tout l’inverse, elle devient omniprésente.



C’est pour ça que l’autre évolution majeur de l’interface homme-machine passera selon moi par la compréhension du langage naturel. On devrait pouvoir interagir avec une machine comme on interagirait avec n’importe qui.



Enfin, l’avancée “ultime”, la machine qui lit dans tes pensées et te retourne directement ainsi par “pensée”. Pour ainsi dire, ça serait l’augmentation/contrôle de nos capacités cognitives par la machine. Et alors là, bonjour la SF, les possibilité de dérive étant infini (même si je préfère l’image donnée par GITS).









tazvld a écrit :



(même si je préfère l’image donnée par GITS).





tu veux dire dire la possibilité de se faire hacker le cerveau, modifier les souvenirs, etc. ? <img data-src=" />









tazvld a écrit :



Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.





Hmm là où ça peut être intéressant la VR c’est pour traiter des peurs / phobies, faire de la mise en situation sans danger réel, et même avec peu de réalisme graphique on arrive quand même à provoquer les réactions correspondantes dans le cerveau des patients.



Sinon c’est juste bon pour les jeux vidéos oui x) Un film en entier avec un écran à - de 10 cm de tes yeux… Euuh non merci le mal de crâne ^^



Je préfère voir des œuvres comme GITS qui va plutôt tenir un propos “ces technologies vont résoudre certain de nos problèmes mais aussi en créer de nouveau que l’on n’avait pas encore” (finalement c’est aussi ce que l’on trouve dans l’œuvre d’Asimov, où il y avait un aspect optimiste de la technologie, mais aussi cherche ses limites) plutôt que des œuvres qui vont s’arrêter à dire “il faut bannir ces technos ! c’est pas bien, elle vont apporter le mal” (c’est pour ça que je n’aime pas le bouquin de ‘1984’qui ne montre aucune mesure dans ses propos : l’auteur avait déjà sa conclusion avant de créer sa discussion).








tazvld a écrit :



Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.&nbsp;





La facilité de développement d’univers VR étant bien plus facile à faire que de la RA (merci Unity), pour tout ce qui est formation dans l’industrie, ça va devenir la référence. Plus d’outils chers à avoir en double, de pièces à sacrifier pour la formation. Cela permet également d’avoir les configurations à jour (et typiquement dans l’aéro, c’est différent à chaque avion).

Dans la médecine, c’est déjà monnaie courante.



oui je voyais bien où tu voulais en venir. <img data-src=" />



Juste que Ghost In the Shell me semble très dystopique, perso (ambiance souvent sombre ou froide, visuellement, aussi du fait des trames de scénar et de ce qu’on suit des personnages qui sont des agents de renseignement et force spéciales militaires, fondamentalement. Ça aurait donné une autre sensation en suivant des profs ou des médecins, de jour, je suppose. (et pour le coup, aussi bien les séries que les films ou OAV introduisent des tranches de vie avec Batou et son chien, Togusa et sa famille ou les Tachikoma qui deviennent plus ou moins conscients, ce qui allège un peu le truc)








letter a écrit :



La facilité de développement d’univers VR étant bien plus facile à faire que de la RA (merci Unity), pour tout ce qui est formation dans l’industrie, ça va devenir la référence. Plus d’outils chers à avoir en double, de pièces à sacrifier pour la formation. Cela permet également d’avoir les configurations à jour (et typiquement dans l’aéro, c’est différent à chaque avion).

Dans la médecine, c’est déjà monnaie courante.





Dans l’idée, tout ce que tu racontes me semble aussi possible en AR, justement car on peut incruster des objets virtuels dans le champ de vision. L’avantage de la VR aujourd’hui est simplement dû au fait que l’AR n’est pas encore du tout développé.







WereWindle a écrit :



oui je voyais bien où tu voulais en venir. <img data-src=" />



Juste que Ghost In the Shell me semble très dystopique, perso (ambiance souvent sombre ou froide, visuellement, aussi du fait des trames de scénar et de ce qu’on suit des personnages qui sont des agents de renseignement et force spéciales militaires, fondamentalement. Ça aurait donné une autre sensation en suivant des profs ou des médecins, de jour, je suppose. (et pour le coup, aussi bien les séries que les films ou OAV introduisent des tranches de vie avec Batou et son chien, Togusa et sa famille ou les Tachikoma qui deviennent plus ou moins conscients, ce qui allège un peu le truc)





Je n’ai pas une vision aussi dystopique que ça de l’œuvre. On est sur un monde qui à géopolitiquement vécu (je crois qu’il y a eu 2 autres guerres mondiales) et on se trouve après la guerre sur une époque où les tensions sont encore très forte. De même, on est impliqué dans les magouilles politiques (la section 13 n’est pas en reste niveau magouille). Pour moi, ça décrit déjà un monde qui est très réel, ni utopique, ni dystopique.



Personnellement, je rapproche plus GITS à du Asimov et un peu toutes ces œuvres de l’age d’or de la science fiction dans lesquelles au final la SF n’était ni dystopie ni utopie, mais une réflexion sur les changements qu’impliquent les nouvelles technologies.









tazvld a écrit :



Dans l’idée, tout ce que tu racontes me semble aussi possible en AR, justement car on peut incruster des objets virtuels dans le champ de vision. L’avantage de la VR aujourd’hui est simplement dû au fait que l’AR n’est pas encore du tout développé.





L’avantage de la VR, est que l’univers est ultra-contrôlé. En AR, il faut gérer aussi le calage avec la réalité. Et franchement, c’est ça le plus compliqué (en terme de puissance des machines, d’algorythmes, etc.)



J’ai le Kinect2 sur PC et c’est sidérant ce qu’il voit : ça fait peur tellement c’est précis.

Par contre, les animaux sont invisibles <img data-src=" />



Je m’en sers pour faire du scan 3D avant impression du même nom.








letter a écrit :



L’avantage de la VR, est que l’univers est ultra-contrôlé. En AR, il faut gérer aussi le calage avec la réalité. Et franchement, c’est ça le plus compliqué (en terme de puissance des machines, d’algorythmes, etc.)







Pour le problème de puissance de calcul : les “coprocesseur dédié à l’intelligence artificielle”(sic) me semble justement taillé pour gérer l’environnement (et faire par exemple une représentation 3D de celui-ci). j’ai vu certain programme faire du bon boulot rien qu’avec une caméra RGB, mais si tu ajoute un caméra RGB-D (profondeur), tu as largement de quoi faire un très bon rendu 3D de l’environnement direct.





Après, c’est qu’un problème de bibliothèque.











Aloyse57 a écrit :



J’ai le Kinect2 sur PC et c’est sidérant ce qu’il voit : ça fait peur tellement c’est précis.

Par contre, les animaux sont invisibles <img data-src=" />



Je m’en sers pour faire du scan 3D avant impression du même nom.







Le Kinect2 est un tel gâchis. MS aurait tellement dû amélioré son usage sur PC. Ca aurait pu faire une excellente webcam, voir un outils de visio conférence (micro directionnel : identification de l’interlocuteur/filtrage pour un seul interlocuteur)









tazvld a écrit :



Pour le problème de puissance de calcul : les “coprocesseur dédié à l’intelligence artificielle”(sic) me semble justement taillé pour gérer l’environnement (et faire par exemple une représentation 3D de celui-ci). j’ai vu certain programme faire du bon boulot rien qu’avec une caméra RGB, mais si tu ajoute un caméra RGB-D (profondeur), tu as largement de quoi faire un très bon rendu 3D de l’environnement direct.





Après, c’est qu’un problème de bibliothèque.&nbsp;





&nbsp;Le problème ce n’est pas de mapper l’environnement. C’est de le corréler avec ton modèle. Avec un nombre de polygones décent.

On chercher à faire de la formation sur des intérieurs d’avion avec méca, hydro et élec et en descendant à des niveaux de détails de l’ordre du millimètre. En VR, on sait faire. En AR, si tu sais faire, j’ai un boulot pour toi.

Sans compter qu’en AR, faut que je dédie une section d’avion. En VR, je fais ma formation dans une salle de réunion dédiée.



L’AR on cherche à le développer depuis des années pour l’assistance à l’opérateur. Et c’est clairement pas encore au point en terme de puissance du matériel pour la plupart des usages ciblés. On est encore dans les niches.



Pourquoi ne pas faire la même projection que la VR en AR dans ce cas (du coup on est plus dans une réalité mixte) ? Pourquoi amener une pièce alors que la pièce virtuelle suffit ?



L’avantage ici n’est pas forcément énorme entre AR et VR. L’AR permet cependant de ne pas être isolé de l’environnement extérieur, dans le cadre d’une formation, tu es toujours en contact avec le formateur. Potentiellement, ça permettrait même, si il y moyen de partager l’information assez rapidement de travailler sur le même “hologramme” très naturellement (on vois les autres interagir, du coup, si le formateur fait tourner la pièce, tu n’es pas surpris)



J’ai cru comprendre justement que Pearson présentait une démo de cours de médecine durant le salon avec l’hololens 2, avec une hologramme de patient suivi par un enseignant (avec en plus l’utilisation de l’AR pour réaliser le diagnostique).





Pour la représentation de l’environnement en 3D, ça peut être utile pour des intéraction simple entre tes modèle et la réalité par exemple poser une objet virtuel sur une table ou le faire bouger si quelque chose le cogne (je n’irais pas jusqu’à faire une simulation réaliste de ping-ping avec une balle virtuelle, mais des applications dans le genre peuvent être sympathique).


Pour moi, l’AR sans interaction avec le monte réelle, c’est de la VR. Ca revient au même, les outils sont juste plus chers.

Tu peux aussi très bien interagir avec quelqu’un d’autre en VR. Et en plus, cela peut se faire en étant à l’autre bout du monde (selon les latences).

Il y a des systèmes de conférence qui se font de cette manière également et c’est assez convivial et efficace au final. Au bout de quelques minutes, quand les avatars ont été un peu customisés, tu oublies que tu n’as pas vraiment la personne en face de toi.