Faça uma busca

Esse site usa cookies para melhorar a sua experiência em nossos serviços, personalizar publicidade e recomendar conteúdo de seu interesse. Ao continuar navegando, você concorda com nossa Política de Privacidade

|
Publicado em: 24 de setembro de 2021

Google implementa navegação por gestos faciais no Android

Novos recursos de acessibilidade foram apresentados pela empresa; Android vai usar a câmera para identificar gestos de usuários

Google implementa navegação por gestos faciais no Android Imagem: Daniel Romero/Unsplash

O Google está adotando novas medidas de acessibilidade para que o Android se torne um sistema operacional mais inclusivo. Entre as iniciativas apresentadas na quinta-feira (23), está o novo recurso de navegação por gestos faciais, que dispensa o uso das mãos e da voz para acessar funções no celular.

Leia também: Aplicativo do Google ensina programação de forma fácil e gratuita

Chamada de “Interruptores de Câmera”, a ferramenta permite que usuários com mobilidade reduzida acionem comandos com o movimento dos olhos ou da face. Ela está disponível em 80 idiomas, incluindo o português.

A ideia é que pessoas com algum tipo de deficiência motora ou na fala possa acessar a plataforma sem precisar utilizar o comando “Ok, Google” ou, de fato, tocar no smartphone. Desse modo, estes usuários conseguem dizer ao telefone quando reproduzir ou pausar uma música, acessar a caixa de e-mails e muito mais.

Segundo o Google, o recurso funciona com o reconhecimento de seis gestos pela câmera do celular:

  • Movimentação de olhos: para cima, para a direita e para a esquerda;
  • Movimentação da face: levantamento de sobrancelha, sorriso e abrir a boca.

O Android também permite configurar gestos específicos para abrir notificações, voltar à tela de início ou mesmo pausar a detecção de gestos — útil para evitar movimentações indesejadas durante uma leitura, por exemplo.

Interruptores de câmera no Android (Imagem: Reprodução/Google)
Interruptores de câmera no Android (Imagem: Reprodução/Google)

Outros recursos de acessibilidade

O aplicativo Lookout, disponível desde 2019, usa inteligência artificial para que o smartphone se transforme em uma espécie de tradutor do mundo real. Basta apontar a câmera para objetos, textos e imagens no mundo físico e o app os identifica em voz alta. A ferramenta pode ser usada para descrever pessoas, identificar rótulos de embalagens e muito mais.

A novidade é que agora o Lookout pode ler textos escritos à mão, facilitando o reconhecimento de anotações.

Por fim, o aplicativo Action Blocks, para pessoas com deficiências intelectuais, ganhou uma versão em português. Com ele, é possível usar atalhos, que contam com ícones personalizáveis na tela para facilitar o reconhecimento.

É possível, por exemplo, criar um atalho com uma mensagem pré-definida que pode ser enviada a um contato com apenas um toque. Outra possibilidade, entre muitas, é definir um atalho para iniciar uma conversa via vídeo com um parente ou amigo. Tudo isso pode ser acionado por meio do bloco correspondente.

Ana Marques
Ana Marques
Jornalista formada pela UFRJ, Ana é entusiasta de tecnologia, dos dispositivos móveis e da inteligência artificial, mas também defensora das relações humanas e das conexões feitas por meio de encontros. Sua relação com a cobertura tecnológica teve início em 2016, no TechTudo, ainda como estagiária. Em 2018, passou a integrar a equipe de Conteúdo do comparador Zoom.com.br, onde foi editora de Mobile (Celulares, Tablets e Wearables) & Eletrônicos até agosto de 2020. Atualmente é editora-assistente de Notícias no Tecnoblog, o maior veículo independente de Tecnologia do Brasil.

Assine a nossa newsletter e receba nosso conteúdo em primeira mão!

assine a nossa newsletter
Entendo que passarei a receber ofertas de produtos, serviços, informativos e presentes grátis, além de outras promoções de Seleções e de parceiros. Para mais informações, acesse nossa Política de Privacidade e Uso de Dados