As histórias de máquinas se rebelando contra seus criadores já se tornaram parte da nossa cultura popular. Filmes, livros e videogames abordam esse medo de forma recorrente. Mas será que a inteligência artificial pode realmente tomar consciência e sair do nosso controle?

Pesquisadores da Universidade Técnica de Darmstadt, na Alemanha, e da Universidade de Bath, no Reino Unido, foram à procura de uma resposta e observaram se modelos de linguagem grandes (LLMs – sigla em inglês) podem desenvolver habilidades para além de seu código. O resultado mostra que não precisamos ter medo por enquanto.

publicidade
Imagem demonstra um exército de robôs com inteligência artificial olhando fixando para frente e marchando
Ilustração de um exército de robôs com inteligência artificial. O medo de que possam se revoltar assombra a humanidade. – (Reprodução: Julien Tromeur/Unsplash)

A IA pode se desenvolver de forma independente?

  • Com o aumento do tamanho dos atuais modelos de linguagem, há o temor de que eles possam desenvolver habilidades perigosas, como raciocínio e planejamento.
  • Nos testes, os pesquisadores analisaram quatro modelos de LLMs que desenvolveram tarefas emergentes, ou seja, para as quais não foram explicitamente treinados.
  • Eles não encontraram evidências de desenvolvimento de pensamento independente ou qualquer tipo de comportamento fora da programação.
  • Todas as habilidades exibidas pelos modelos foram explicadas pela capacidade de seguir instruções, memorização e proficiência linguística, sem qualquer desvio.
  • Em resumo, o resultado mostra que o medo de que um modelo de IA desenvolva comportamentos inesperados e consciência não é justificado.
A chance de uma IA se revoltar é pequena, mas ela ainda pode representar ameaças à humanidade se não for bem utilizada. – Imagem: Yuichiro Chino/Shutterstock

Leia mais:

O perigo real está nos humanos

Nos últimos anos, os modelos de linguagem (LLMs) evoluíram para se tornarem muito mais sofisticados, sendo capazes de manter conversas coerentes e naturais via texto. Apesar disso, esses modelos não são perfeitos, pois não possuem inteligência real, o que os impede de distinguir informações boas e ruins em muitos casos.

O perigo mesmo está em quem e como utiliza essas ferramentas. Ao contrário da IA, as pessoas são menos previsíveis, e seu uso desenfreado da tecnologia já levanta questões como direitos autorais, confiança, poluição digital e outros. Segundo pesquisadores, essas ameaças devem ser o foco de futuras investigações científicas.

Nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostram que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal.

Iryna Gurevych, autora da pesquisa, em artigo da Universidade Técnica de Darmstadt

A pesquisa foi divulgada nos anais da 62ª Reunião Anual da Associação de Linguística Computacional.