Update,11 de junho de 2019 (6:15 pm ET):Pouco depois do boato inicial ter sido publicado, o XDA-Developers compartilhou informações sobre um recurso baseado em gestos que eles vinham rastreando nos betas do Android Q. De acordo com a publicação, os novos gestos são chamados de “Skip” e “Silence” e contariam com um dispositivo que inclui um sensor “Aware”.

O XDA-Developers observa que as strings de código do Aware são apenas espaços reservados e incompletos. Com o boato de que o Projeto Soli está sendo potencialmente adicionado ao Pixel 4 ou até mesmo alto-falantes inteligentes atualizados da Nest , esses gestos de controle de mídia fazem muito sentido.

Artigo original, 11 de junho de 2019 (5:19 pm ET):Apenas algumas horas depois de nos reportarmos sobre os potenciais sistemas de câmeras do Pixel 4 e do Pixel 4 XL ,surgiu um novo rumor ao redor dos dois aparelhos. De acordo com o 9to5Google , o Google poderia incluir a tecnologia de rastreamento de gestos com as mãos em seus futuros smartphones.

O Google ATAP apresentou o que chama de Project Soli na conferência de desenvolvedores de E / S de 2015 da empresa.Em suma, a tecnologia é um radar em miniatura que pode pegar em gestos de minutos.Como você pode ver no vídeo acima,o Google imaginou que o Project Soli seria usado como uma interface de usuário sem toque que poderia ser usada para interagir com wearables,rádios e outros componentes eletrônicos.

A foto abaixo demonstra como vários toques e toques de dedos podem alterar aspectos de um aplicativo em execução em um tablet.

O departamento de projetos especiais do Google estava relativamente tranquilo em relação ao Projeto Soli após sua estréia até dezembro passado.No último dia do ano,a FCC deu permissão ao gigante das buscas para começar a testar a tecnologia de radar

Essa cadeia de eventos daria ao Google tempo suficiente para experimentar mais a tecnologia e possivelmente adicioná-la a um dispositivo comercial, como o Pixel 4.

Por enquanto, a inclusão do Projeto Soli no Pixel 4 e no Pixel 4 XL é um rumor. Não está claro como o Google incorporaria o recurso, mas o 9to5Google acredita que ele pode ser usado para interações básicas ou até mesmo acionando vários recursos do Assistente.