Google Assistente vai alertar sobre machismo e homofobia em comandos de voz

Sim, o Google sabe quando você reproduz comportamentos machistas ou homofóbicos. A empresa anunciou recentemente que vai passar a alertar quando um

Redação | 13 de Maio de 2022 às 09:31

Assistente virtual (Imagem: VectorMine/iStock) -

Sim, o Google sabe quando você reproduz comportamentos machistas ou homofóbicos. A empresa anunciou recentemente que vai passar a alertar quando um comando de voz dado ao seu assistente virtual tiver termos que evidenciem preconceito de gênero.

Leia também: Assédio no metaverso: velhos problemas migram para a realidade do futuro

O objetivo é desencorajar qualquer tipo de violência de gênero na sociedade, repreendendo mensagens abusivas e educando os usuários sobre palavras e frases que remetam a assédio.

O Google conta que, no Brasil, centenas de milhares de mensagens com comandos abusivos chegam ao Assistente todo mês — grande parte delas contém violência de gênero.

“Um exemplo são os pedidos para ‘mandar nudes’. Embora isso possa até ser visto por alguns como uma ‘brincadeira’, por se tratar de uma conversa com a voz do aplicativo, não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento”, disse Maia Mau, Head de Marketing do Google Assistente para a América Latina.

Novas respostas para o Google Assistente

Com a atualização, o software de inteligência artificial terá novas respostas pré-configuradas, que serão ativadas quando houve um insulto ou uso de termos indevidos relacionados a assédio.

As respostas vão se adaptar ao nível de abuso. Segundo o Google, ofensas explícitas, como palavrões ou falas misóginas, homofóbicas, racistas ou de cunho sexual explícito, podem ser respondidas de forma instrutiva. Um exemplo seria a seguinte frase: “O respeito é fundamental em todas as relações, inclusive na nossa”.

Em alguns casos, o assistente virtual também poderá repreender o usuário: “Não fale assim comigo”.

Mensagens “mais brandas”, que não têm ofensas explícitas, mas podem representar uma conduta inapropriada socialmente, também pode ser rebatida.

Por exemplo: se o Assistente recebe uma proposta de namoro ou casamento, ele poderá dar um “fora” bem-humorado, ou mesmo alertar sobre o incômodo daquela fala.

Tom de voz “feminino” é mais assediado

É isso: nem mesmo um software tem paz se ele for identificado de alguma forma como “mulher”. O Google compartilhou uma pesquisa que afirma que um a cada seis insultos são destinados ao tom de voz que soa como “feminino”.

Além disso, perguntas relacionadas a aparência física (como: “Você é bonita?”) também são mais direcionadas à voz associada a de uma mulher. Já tons de voz masculinos recebem mensagens homofóbicas com maior frequência — cerca de uma a cada dez ofensas.