Faça uma busca
|
Publicado em: 13 de maio de 2022

Google Assistente vai alertar sobre machismo e homofobia em comandos de voz

Assistente virtual do Google recebe mais assédio quando é configurado para tom de voz “feminino”; software vai repreender mensagens abusivas

Google Assistente vai alertar sobre machismo e homofobia em comandos de voz Imagem: Assistente virtual (Imagem: VectorMine/iStock)

Sim, o Google sabe quando você reproduz comportamentos machistas ou homofóbicos. A empresa anunciou recentemente que vai passar a alertar quando um comando de voz dado ao seu assistente virtual tiver termos que evidenciem preconceito de gênero.

Leia também: Assédio no metaverso: velhos problemas migram para a realidade do futuro

O objetivo é desencorajar qualquer tipo de violência de gênero na sociedade, repreendendo mensagens abusivas e educando os usuários sobre palavras e frases que remetam a assédio.

O Google conta que, no Brasil, centenas de milhares de mensagens com comandos abusivos chegam ao Assistente todo mês — grande parte delas contém violência de gênero.

“Um exemplo são os pedidos para ‘mandar nudes’. Embora isso possa até ser visto por alguns como uma ‘brincadeira’, por se tratar de uma conversa com a voz do aplicativo, não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento”, disse Maia Mau, Head de Marketing do Google Assistente para a América Latina.

Novas respostas para o Google Assistente

Com a atualização, o software de inteligência artificial terá novas respostas pré-configuradas, que serão ativadas quando houve um insulto ou uso de termos indevidos relacionados a assédio.

As respostas vão se adaptar ao nível de abuso. Segundo o Google, ofensas explícitas, como palavrões ou falas misóginas, homofóbicas, racistas ou de cunho sexual explícito, podem ser respondidas de forma instrutiva. Um exemplo seria a seguinte frase: “O respeito é fundamental em todas as relações, inclusive na nossa”.

Em alguns casos, o assistente virtual também poderá repreender o usuário: “Não fale assim comigo”.

Mensagens “mais brandas”, que não têm ofensas explícitas, mas podem representar uma conduta inapropriada socialmente, também pode ser rebatida.

Por exemplo: se o Assistente recebe uma proposta de namoro ou casamento, ele poderá dar um “fora” bem-humorado, ou mesmo alertar sobre o incômodo daquela fala.

Tom de voz "feminino" é mais assediado

É isso: nem mesmo um software tem paz se ele for identificado de alguma forma como “mulher”. O Google compartilhou uma pesquisa que afirma que um a cada seis insultos são destinados ao tom de voz que soa como “feminino”.

Além disso, perguntas relacionadas a aparência física (como: “Você é bonita?”) também são mais direcionadas à voz associada a de uma mulher. Já tons de voz masculinos recebem mensagens homofóbicas com maior frequência — cerca de uma a cada dez ofensas.

Ana Marques
Ana Marques
Jornalista formada pela UFRJ, Ana é entusiasta de tecnologia, dos dispositivos móveis e da inteligência artificial, mas também defensora das relações humanas e das conexões feitas por meio de encontros. Sua relação com a cobertura tecnológica teve início em 2016, no TechTudo, ainda como estagiária. Em 2018, passou a integrar a equipe de Conteúdo do comparador Zoom.com.br, onde foi editora de Mobile (Celulares, Tablets e Wearables) & Eletrônicos até agosto de 2020. Atualmente é editora-assistente de Notícias no Tecnoblog, o maior veículo independente de Tecnologia do Brasil.

Assine a nossa newsletter e receba nosso conteúdo em primeira mão!

assine a nossa newsletter
Entendo que passarei a receber ofertas de produtos, serviços, informativos e presentes grátis, além de outras promoções de Seleções e de parceiros. Para mais informações, acesse nossa Política de Privacidade e Uso de Dados