Quão confiável é a IA? Novo estudo propõe resposta em seis etapas

Pesquisadores alemães apresentam modelo que ajuda usuários a avaliar riscos, limites e transparência de sistemas como o ChatGPT
Por Leandro Costa Criscuolo, editado por Layse Ventura 28/11/2025 05h00
IA seguranca
Imagem: Anggalih Prasetya/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Modelos de linguagem baseados em inteligência artificial (IA) conseguem responder a praticamente qualquer pergunta, mas muitas vezes de forma imprecisa.

Para ajudar usuários e desenvolvedores a avaliar melhor esses sistemas, pesquisadores da Universidade Ruhr de Bochum e da Universidade Técnica de Dortmund propõem um modelo com seis dimensões de confiabilidade aplicáveis a humanos, instituições, máquinas e sistemas de IA.

O trabalho, assinado por Carina Newen, Emmanuel Müller e Albert Newen, foi publicado na revista Topoi.

inteligencia artificial
Cientistas definem seis critérios para medir confiança na IA (Imagem: Anggalih Prasetya/Shutterstock)

Seis dimensões para entender a confiabilidade

  • Os autores defendem que a confiabilidade não deve ser vista como um simples “sim ou não”, mas como um perfil composto por critérios específicos.
  • Entre eles estão a funcionalidade objetiva, que avalia se o sistema executa bem sua tarefa; a transparência de seus processos; e a incerteza dos dados e modelos, que envolve segurança, vieses e qualidade das informações usadas no treinamento.
  • O modelo também considera o grau de incorporação física ou virtual, o nível de imediatismo na interação com o usuário e o possível compromisso que o sistema pode ou não assumir.
  • Segundo os pesquisadores, tecnologias atuais (como chatbots e veículos autônomos) ainda mostram fragilidades significativas em várias dessas dimensões.

Leia mais:

IA
Pesquisadores revelam dimensões essenciais para entender quando — e até que ponto — sistemas de IA devem ser considerados confiáveis – Imagem: Who is Danny/Shutterstock

Caixa-preta, vieses e riscos de confiança excessiva

Do ponto de vista técnico, a falta de transparência continua sendo um dos maiores entraves. “O deep learning faz coisas impressionantes, mas seus processos ainda são uma caixa-preta”, afirma Müller. Já Carina Newen destaca que vieses presentes em dados de treinamento são facilmente reproduzidos.

Na análise filosófica, Albert Newen alerta que sistemas como o ChatGPT podem gerar respostas convincentes, mas imprecisas, reforçando a necessidade de uso crítico.

Para ele, criar vínculos de confiança com um chatbot pode ser arriscado, já que esses sistemas não têm obrigações reais com o usuário.

Garantir que a inteligência artificial seja utilizada de forma ética é um dos grandes desafios das empresas no mercado atual (Imagem: Supatman/iStock)
Especialistas alertam que confiar cegamente em chatbots é perigoso (Imagem: Supatman/iStock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.