Google montre l’AR à venir sur le web

Depuis son lancement officiel au début de l’année dernière, Google travaille tranquillement à l’amélioration de sa plateforme de réalité augmentée, ARCore. Aujourd’hui, l’entreprise se dit prête à dévoiler certaines des améliorations de la prochaine génération en matière de détection de profondeur et de physique qu’elle a réalisées, ce qui promet de rendre les expériences de RA beaucoup plus réalistes dans l’avenir.

Ces mises à jour, qui font partie de la toute nouvelle API de profondeur d’ARCore, permettront bientôt aux développeurs d’effectuer ce qu’on appelle l’occlusion, c’est-à-dire lorsqu’un objet artificiel peut être bloqué par d’autres objets du monde réel dans une scène. Placez un chat virtuel dans votre salon, par exemple, et vous pouvez le voir disparaître de la vue lorsque vous inclinez votre caméra de manière à placer un lit, une table ou tout autre objet entre les deux.

Le résultat est une scène plus crédible, car la détection de la profondeur sous le capot permet à votre smartphone de mieux comprendre chaque objet d’une scène et à quelle distance de chaque objet est éloigné les uns des autres. Google dit qu’il est capable de le faire en optimisant les logiciels existants, de sorte que vous n’aurez pas besoin d’un téléphone avec un capteur ou un type de processeur spécifique. Tout se passe aussi sur l’appareil lui-même, et ne dépend pas de l’aide du nuage. Tant que vous avez un téléphone qui prend en charge ARCore, qui est à peu près tous les nouveaux téléphones Android publiés au cours des dernières années, vous serez en mesure d’accéder à ces nouvelles fonctionnalités.

LIRE AUSSI  4 Alternatives à Google Traduction pour une expérience de traduction améliorée

Nous avons déjà vu des occlusions sur des téléphones portables. Le créateur de Pokémon Go, Niantic, a montré une vidéo d’une démonstration d’occlusion mettant en scène un minuscule pikachu virtuel qui se promène dans une place urbaine, se faufile entre les objets et se fond dans l’environnement. C’était en juillet 2018. Mais ce n’était qu’une vidéo, pas une démo que les membres de la presse pouvaient voir tourner sur un appareil et fonctionner en temps réel.

Sommaire :

Découvrez l’occlusion d’objet en AR

Lors d’une réunion avec des membres de la division AR de Google la semaine dernière, j’ai pu jouer avec les démos en temps réel que l’équipe a construites pour montrer la nouvelle technologie de profondeur. Certes, c’était dans un environnement d’essai que Google avait prévu pour la démo, mais la technologie fonctionne. En fait, il sera disponible à partir d’aujourd’hui, dans le cadre des mises à jour de l’application de conception de maison Houzz et de la fonction AR in Search de Google.

Les meubles que vous trouverez sur Houzz et qui font partie de la fonction “View in My Room 3D” de l’application vont maintenant supporter l’occlusion. Google dit que les plus de 200 millions d’appareils Android obtiendront également l’occlusion pour tout objet qui a un modèle AR dans Google Search.

J’ai pu voir quelques démos des nouvelles fonctionnalités de l’API Depth qui ne seront pas disponibles dans les applications ou services commerciaux aujourd’hui, mais Google dit que ces progrès seront mis à la disposition des développeurs dans l’avenir après qu’il travaille plus étroitement avec les développeurs et autres collaborateurs pour affiner certaines de ses approches.

LIRE AUSSI  La cybersécurité depuis le début de l'informatique à nos jours

Des interactions physiques en AR

Celles-ci vont au-delà de l’occlusion et s’orientent vers une physique et une cartographie 3D plus réalistes. Google a développé un moyen pour les objets AR d’interagir avec le monde réel de manière plus réaliste, de se déplacer dans un environnement de la même manière qu’un objet 3D du monde réel, et d’interagir avec des surfaces comme vous pourriez vous y attendre avec la matière physique. Par exemple, dans la démo que j’ai pu expérimenter, j’ai été capable de créer des blocs de forme colorés à partir d’air fin qui pouvaient rebondir sur pratiquement toutes les surfaces, même sur le guidon d’un vélo d’exercice.

Google a également créé une sorte de mini-jeu démontrant la capacité des objets AR à se déplacer dans un environnement en contournant des objets du monde réel et en les survolant, ainsi que les capacités d’interaction de surface de la nouvelle API Depth. Il s’agissait d’un robot de cuisine qui s’engage dans une lutte alimentaire avec vous qui prend en compte les meubles et les murs de l’environnement, avec des desserts laissant des éclaboussures réalistes sur les surfaces.

Google ne rend pas ces démos disponibles au public, mais la société dit qu’elle espère que les fabricants d’applications feront de même pour les expériences grandement améliorées quand elle sera prête à publier la mise à jour de l’API Depth à tous les développeurs. L’entreprise n’a pas d’échéancier pour le lancement de cet ensemble d’outils à plus grande échelle, mais il est probable que ces capacités apparaîtront dans les applications et les expériences Web de RA à un moment donné l’an prochain.

Votez ! post
Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

Procreate 5 : Les brush Photoshop, l’Animation Assist et le mode CMJN arrivent.

Next Post

Les 12 plus grosses annonces des Game Awards 2019

Related Posts