Recentemente, a ideia de que uma inteligência artificial pode criar “vida própria” ganhou grande repercussão. O motivo da polêmica foi as declarações feitas pelo engenheiro de software sênior Blake Lemoine, que recentemente foi escalado para testar a ferramenta de IA do Google, chamada LaMDA (Modelo de Linguagem para Aplicações de Diálogo). 

Após os testes, Lemoine afirmou que a inteligência artificial era senciente, ou seja, dotado de sensações ou impressões próprias, assim como um ser humano. O engenheiro debateu com a máquina sobre a terceira Lei da Robótica, idealizada por Isaac Asimov, que afirma que os robôs devem proteger sua própria existência – e que o engenheiro sempre entendeu como uma base para a construção de escravos mecânicos. 

publicidade

Leia também!

Só para ilustrarmos melhor sobre o que estamos falando, aqui estão as três leis (e a Lei Zero): 

publicidade
  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 
  • 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei. 
  • 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis. 
  • Lei Zero, acima de todas as outras: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal. 

O LaMDA então respondeu a Lemoine com algumas perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo? 

Ao responder que um mordomo é pago, o engenheiro teve como resposta do LaMDA que o sistema não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção de Lemoine. 

publicidade

Após divulgar suas expressões, Blake Lemoine foi afastado do Google. O funcionário está em licença remunerada e, segundo o próprio, a empresa alega violação das políticas de confidencialidade.  

Inteligência artificial
Imagem: sdecoret/Shutterstock

Afinal, uma inteligência artificial igual a do Google pode criar vida própria?  

Em entrevista ao Olhar Digital News, o especialista em Tecnologia e Inovações, Arthur Igreja, ressaltou que as novas tecnologias de IA estão sendo desenvolvidas com níveis de inteligência próximo ao dos humanos para realização de tarefas específicas.  

publicidade

Porém, é necessário entender a forma como o termo “inteligência artificial” é enquadrado. Igreja explica que estes tipos de tecnologias são desenvolvidas por humanos e, por vezes, é possível encontrar comportamentos da sociedade, como já aconteceu com IAs que apresentaram comportamentos preconceituosos, por exemplo.  

Igreja disse que as pesquisas ainda estão distantes de alcançar uma inteligência artificial com exatamente as mesmas características humanas. “Para a amplitude e complexidade do ser humano, que é o que se chama de inteligência artificial ampla, nós não estamos nem remotamente perto”.  

Igreja disse que o fato acontecido sobre a LaMDA, na verdade, se trata apenas de um robô programado para interagir por meio do diálogo e, devido sua alta capacidade, pode ter impressionado o engenheiro. O especialista ainda lembrou que o afastamento do funcionário, não necessariamente significa que o Google queira esconder algo da sociedade, apenas que a empresa está preservando seus projetos.  

O especialista descartou a possibilidade de máquinas se revoltarem contra a sociedade, como acontece em filmes de ficção científica. Ele alertou que, na verdade, devemos prestar atenção em empresas e pessoas que possuem essas tecnologias e possam utilizar desse poder de maneira equivocada. Será o caso do Google?

Confira a entrevista completa com Arthur Igreja:

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!