O GPT-3, modelo de linguagem de IA (inteligência artificial) da OpenAI, tem desempenho semelhante ao de universitários quando confrontado com problemas de raciocínio que geralmente aparecem em testes de inteligência e exames padronizados, como o SAT (uma espécie de Enem dos EUA).
Para quem tem pressa:
- Em problemas de raciocínio típicos de testes de inteligência, o GPT-3, da OpenAI, e universitários têm desempenhos parecidos;
- No entanto, a IA da OpenAI falha em resolver tarefas simples para os seres humanos;
- Os pesquisadores querem investigar se esses modelos de IA estão realmente começando a pensar como os seres humanos.
É o que revelou uma pesquisa realizada por psicólogos da UCLA (Universidade da Califórnia), em Los Angeles (EUA). Os cientistas também descobriram que o GPT-3 falha em resolver tarefas simples para os seres humanos – por exemplo: como utilizar ferramentas para resolver uma tarefa física.
Leia mais:
- Pesquisadores encontram falhas na segurança do ChatGPT
- O que é e para que serve a LGPD (Lei Geral de Proteção de Dados)
- ChatGPT e IA: o que os chatbots sabem sobre nós e com quem compartilham dados?
Experimento com GPT-3
Um experimento conduzido pelos pesquisadores envolveu pedir ao GPT-3 e a estudantes voluntários da UCLA que resolvessem analogias baseadas em histórias curtas. Eles tinham que identificar uma história diferente que transmitisse o mesmo significado.
Os estudantes tiveram um desempenho melhor do que o GPT-3 nessas tarefas. Mas a versão mais recente da tecnologia – o GPT-4 – superou o desempenho do GPT-3.
No entanto, a equipe de pesquisa da UCLA ressalta que o GPT-3 tem suas limitações e não consegue resolver problemas que exigem compreensão do espaço físico.
Além disso, a forma como o GPT-3 realiza seu raciocínio ainda é desconhecida, pois o acesso às suas operações internas é restrito pela OpenAI.
Próximos passos
Os pesquisadores agora estão interessados em descobrir se esses modelos de IA estão realmente começando a pensar como os seres humanos ou se estão realizando algo completamente diferente que apenas imita o pensamento humano.
Para isso, eles precisariam determinar os processos cognitivos subjacentes ao GPT-3, o que exigiria acesso ao software e aos dados utilizados para treiná-lo.
Esta seria a próxima etapa para decidir o que a inteligência artificial deve se tornar.
Os pesquisadores estão ansiosos para obter mais informações sobre o funcionamento interno dos modelos GPT, a fim de aprimorar sua compreensão e avaliar suas habilidades em relação a outras inteligências artificiais desenvolvidas comercialmente.
O estudo dos pesquisadores da UCLA foi publicado na revista Nature Human Behaviour.
Com informações de Universidade da Califórnia
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!