Afinal, uma inteligência artificial pode ganhar vida própria?

Não é de hoje que a humanidade questiona como seria o mundo no dia em que máquinas pudessem, de fato, desenvolver vida própria. Um novo capítulo curioso

Redação | 17 de Junho de 2022 às 10:28

ipopba/iStock -

Não é de hoje que a humanidade questiona como seria o mundo no dia em que máquinas pudessem, de fato, desenvolver vida própria. Um novo capítulo curioso levou a discussão para frente nesta semana: um engenheiro do Google, que trabalhava com a tecnologia LaMDA, foi afastado do cargo após compartilhar preocupações sobre o estado de senciência de seu modelo IA.

Leia também: Até onde deve ir a confiança em assistentes virtuais?

Em outras palavras, Blake Lemoine acredita que o software da empresa, criado para simular conversas naturais com humanos, tenha desenvolvido a capacidade de sentir e ter percepções conscientes sobre o mundo ao seu redor.

Assustado com as respostas do programa de linguagem natural, Lemoine teria levado o caso a um representante do Comitê Judiciário da Câmara, nos EUA, alegando que o Google estaria ferindo a ética em seu novo projeto.

No mesmo dia em que expôs ao mundo sua preocupação por meio de uma publicação no Medium, o engenheiro foi afastado da empresa em licença administrativa. O Google, por sua vez, se posicionou sobre a denúncia do funcionário, explicando não haver evidências de que o LaMDA seja senciente.

Para quem não está familiarizado com o termo, vale a explicação: o LaMDA é um sistema que imita a fala humana, utilizando para isso uma base de dados com bilhões de palavras predefinidas. O objetivo é deixar a interação com o menor atrito possível, permitindo que esses programas auxiliem nas mais diversas atividades do dia a dia.

IA pode atingir senciência?

Quem sou eu para prever a evolução tecnológica das próximas décadas, não é mesmo? Mas, por enquanto, não há indícios de que um nível de consciência própria — tal qual a de seres humanos — tenha sido atingido por softwares.

Apesar de, aparentemente, o modelo testado por Lemoine ter conseguido ter diálogos reais o suficiente para assustar o pesquisador, há um longo caminho entre a simulação de um sentimento e a capacidade de senti-lo, como nós sentimos. Ao menos, é o que dizem especialistas do setor.

Em um resumo breve…

Hoje, já temos máquinas capazes de escrever textos, criar imagens e “entender” nossos desejos. Mas tudo isso é feito com base em algoritmos, em programação. Até mesmo profissionais que estudam o campo de IA pode divergir quanto à possibilidade de um software criar “vida própria”.

Há uma teoria (a GNW) que abraça a ideia de poderes praticamente infinitos para a computação, pois vê a consciência como um produto de processamento do cérebro humano, exclusivamente. Uma alternativa a essa corrente é a IIT, que foca nos poderes causais intrínsecos do cérebro, que não podem ser simulados, pois dependem de mecanismos subadjacentes.

Um dos nomes que refutam a ideia de Lemoine é Timnit Gebru, que tem ampla atuação na área de Ética e Inteligência Artificial. Ela fez um tweet alertando para o risco de que discussões como esta possam desviar outros debates éticos a respeito do tema, como a perpetuação de discriminação racial e de gênero, por exemplo.

Se você se interessa pelo assunto, dê uma lida neste outro artigo no qual eu falo sobre racismo algoritmo e em como softwares podem desenvolver preconceitos.