O GPT-3, modelo de linguagem de IA (inteligência artificial) da OpenAI, tem desempenho semelhante ao de universitários quando confrontado com problemas de raciocínio que geralmente aparecem em testes de inteligência e exames padronizados, como o SAT (uma espécie de Enem dos EUA).

Para quem tem pressa:

  • Em problemas de raciocínio típicos de testes de inteligência, o GPT-3, da OpenAI, e universitários têm desempenhos parecidos;
  • No entanto, a IA da OpenAI falha em resolver tarefas simples para os seres humanos;
  • Os pesquisadores querem investigar se esses modelos de IA estão realmente começando a pensar como os seres humanos.

É o que revelou uma pesquisa realizada por psicólogos da UCLA (Universidade da Califórnia), em Los Angeles (EUA). Os cientistas também descobriram que o GPT-3 falha em resolver tarefas simples para os seres humanos – por exemplo: como utilizar ferramentas para resolver uma tarefa física.

publicidade

Leia mais:

Experimento com GPT-3

Ilustração de problema de raciocínio rodeado por linhas de tecnologia
(Imagem: Tony Stella/UCLA)

Um experimento conduzido pelos pesquisadores envolveu pedir ao GPT-3 e a estudantes voluntários da UCLA que resolvessem analogias baseadas em histórias curtas. Eles tinham que identificar uma história diferente que transmitisse o mesmo significado.

publicidade

Os estudantes tiveram um desempenho melhor do que o GPT-3 nessas tarefas. Mas a versão mais recente da tecnologia – o GPT-4 – superou o desempenho do GPT-3.

No entanto, a equipe de pesquisa da UCLA ressalta que o GPT-3 tem suas limitações e não consegue resolver problemas que exigem compreensão do espaço físico.

publicidade

Além disso, a forma como o GPT-3 realiza seu raciocínio ainda é desconhecida, pois o acesso às suas operações internas é restrito pela OpenAI.

Próximos passos

Mulher rosada vestindo roupa futurista interage com holograma
(Imagem: Shutterstock)

Os pesquisadores agora estão interessados em descobrir se esses modelos de IA estão realmente começando a pensar como os seres humanos ou se estão realizando algo completamente diferente que apenas imita o pensamento humano.

publicidade

Para isso, eles precisariam determinar os processos cognitivos subjacentes ao GPT-3, o que exigiria acesso ao software e aos dados utilizados para treiná-lo.

Esta seria a próxima etapa para decidir o que a inteligência artificial deve se tornar.

Os pesquisadores estão ansiosos para obter mais informações sobre o funcionamento interno dos modelos GPT, a fim de aprimorar sua compreensão e avaliar suas habilidades em relação a outras inteligências artificiais desenvolvidas comercialmente.

O estudo dos pesquisadores da UCLA foi publicado na revista Nature Human Behaviour.

Com informações de Universidade da Califórnia

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!