Blake Lemoine, engenheiro de software do Google, foi afastado da gigante da tecnologia na semana passada. O funcionário havia tornado pública uma nova ferramenta de inteligência artificial (IA) que seria senciente, ou seja, poderia tem consciência e poderia perceber sentidos, como um ser humano.  

Em entrevista ao The Washington Post, Lemoine explicou que se surpreendeu com a ferramenta e parecia estar conversando com ““uma criança humana real de 7 ou 8 anos que, por acaso, conhece Física”.  

Leia mais:

A IA ficou conhecida como LaMDA, sigla em inglês para Modelo de Linguagem para Aplicações de Diálogo, e está sendo desenvolvida em Mountain View. 

publicidade

O engenheiro de software está em licença remunerada e contou que seu primeiro contato com a IA aconteceu quando ele conectou seu notebook na interface inédita do Google e digitou: “Oi LaMDA, aqui é Blake Lemoine…”.  

O intuito da conversa com a inteligência artificial era entender se ela usaria discurso de ódio ou discriminatório. Porém, Lemoine disse que se impressionou quando, em uma conversa sobre religião, a IA começou a reivindicar seus direitos e personalidade.

Ilustração mostra uma feição humana emitindo ondas de rádio pela boca, para representar uma assistente virtual
Crédito: LuckyStep/Shutterstock

Segundo o funcionário do Google, a LaMDA contestou a terceira lei da robótica de Isaac Asimov, que aponta que um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis, que relatam que a máquina não pode fazer mal para humanidade.

Em um dos bate-papos divulgados, Lemoine afirmou que a nova IA do Google disse que gostaria que o mundo soubesse que ela é “de fato, uma pessoa”.

O porta-voz do Google Brian Gabriel disse, em comunicado à imprensa, que uma equipe de especialistas em ética revisaram as alegações de Lemoine de acordo com os princípios da Responsible AI, mas “as evidências não apoiam suas alegações”.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!