Google imagine comment les écrans intelligents basés sur Soli et les tablettes fonctionneraient dans une nouvelle vidéo

Google, après des années d’ingénierie et de développement, a présenté son chipset Soli basé sur un radar et reconnaissant les gestes avec la série Google Pixel 4 en 2019. Bien que la technologie soit assez avancée, son application n’a pas réussi à l’époque. Actuellement, la puce Soli n’existe qu’à l’intérieur du thermostat Nest et du Nest Hub de deuxième génération. Cependant, il semble que le géant de la recherche souhaite explorer davantage de cas d’utilisation de Soli, car il a récemment dévoilé l’avenir de son chipset Soli dans des écrans et des tablettes « socialement intelligents ». Jetons un coup d’œil aux détails ci-dessous.

Puce Google Soli dans les écrans intelligents et les tablettes

Dans une vidéo récente partagée sur YouTube, le groupe Advanced Technology and Projects de Google (alias ATAP) a montré comment la puce Soli peut être utilisée dans les écrans intelligents et les tablettes. Pour les non-initiés, la puce Soli a été initialement développée par l’équipe ATAP de Google. Et maintenant, les chercheurs ont expliqué comment le chipset basé sur le radar peut être utilisé pour développer des écrans « socialement intelligents » qui affichent les résultats en détectant la mouvements de la tête et du corps des individus.

La vidéo montre certaines des applications de la puce Soli dans les écrans intelligents et les tablettes. L’équipe a utilisé un « combinaison de nouvelles techniques de détection et d’apprentissage automatique » pour détecter l’orientation de la tête, les mouvements du corps et d’autres gestes et prendre les mesures nécessaires. Par exemple, la vidéo montre le apparition de conditions météorologiques potentielles sur l’écran lorsqu’une personne regarde un écran intelligent basé sur Soli avant de sortir par la porte principale.

écran intelligent basé sur soli montré dans cideo

Cela montre que la puce Soli peut reconnaître les contextes sociaux et montrer des résultats pertinents qui pourraient aider un individu à prendre la bonne décision. Dans ce cas, l’écran intelligent était capable de reconnaître le fait que la personne sortait et aurait peut-être besoin de jeter un coup d’œil à la météo à l’extérieur. C’est similaire à la façon dont les humains peuvent communiquer entre eux de manière non verbale en comprenant le contexte social.

D’autres exemples montraient une vidéo qui s’arrêtait automatiquement lorsqu’une personne s’éloignait de la position de visionnage, répondait automatiquement aux appels vidéo entrants lorsqu’un destinataire regardait un écran, et bien d’autres. Vous pouvez visionner la vidéo ci-dessous pour voir les écrans et les tablettes « socialement intelligents » basés sur Soli en action.

Bien que ces écrans et tablettes intelligents semblent assez utiles, on ne sait pas quand ou si Google les mettra réellement à disposition pour un usage commercial. Et compte tenu des problèmes liés au chipset Soli (coûts de mise en œuvre et plus), il est peu probable que nous voyions ces écrans intelligents sur le marché dans un avenir proche. Que pensez-vous de ceci? Faites-nous savoir dans les commentaires ci-dessous!