Siga o Olhar Digital no Google Discover
Modelos de linguagem baseados em inteligência artificial (IA) conseguem responder a praticamente qualquer pergunta, mas muitas vezes de forma imprecisa.
Ofertas
Por: R$ 22,90
Por: R$ 2.240,00
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 404,90
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 469,00
Por: R$ 5.610,00
Por: R$ 88,50
Por: R$ 19,99
Por: R$ 449,00
Por: R$ 597,00
Por: R$ 209,90
Por: R$ 499,00
Por: R$ 720,00
Por: R$ 1.481,05
Por: R$ 999,00
Por: R$ 419,00
Por: R$ 2.315,00
Por: R$ 379,00
Por: R$ 1.616,02
Por: R$ 788,40
Por: R$ 179,90
Por: R$ 1.200,00
Por: R$ 3.999,00
Por: R$ 1.319,00
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 1.999,00
Por: R$ 473,00
Para ajudar usuários e desenvolvedores a avaliar melhor esses sistemas, pesquisadores da Universidade Ruhr de Bochum e da Universidade Técnica de Dortmund propõem um modelo com seis dimensões de confiabilidade aplicáveis a humanos, instituições, máquinas e sistemas de IA.
O trabalho, assinado por Carina Newen, Emmanuel Müller e Albert Newen, foi publicado na revista Topoi.

Seis dimensões para entender a confiabilidade
- Os autores defendem que a confiabilidade não deve ser vista como um simples “sim ou não”, mas como um perfil composto por critérios específicos.
- Entre eles estão a funcionalidade objetiva, que avalia se o sistema executa bem sua tarefa; a transparência de seus processos; e a incerteza dos dados e modelos, que envolve segurança, vieses e qualidade das informações usadas no treinamento.
- O modelo também considera o grau de incorporação física ou virtual, o nível de imediatismo na interação com o usuário e o possível compromisso que o sistema pode ou não assumir.
- Segundo os pesquisadores, tecnologias atuais (como chatbots e veículos autônomos) ainda mostram fragilidades significativas em várias dessas dimensões.
Leia mais:
- IA que raciocina mais alucina mais: novos modelos da OpenAI “viajam” bastante
- A ilusão da amizade com a inteligência artificial
- Sociabilidade artificial: por que estamos nos apegando a máquinas que não sentem?

Caixa-preta, vieses e riscos de confiança excessiva
Do ponto de vista técnico, a falta de transparência continua sendo um dos maiores entraves. “O deep learning faz coisas impressionantes, mas seus processos ainda são uma caixa-preta”, afirma Müller. Já Carina Newen destaca que vieses presentes em dados de treinamento são facilmente reproduzidos.
Na análise filosófica, Albert Newen alerta que sistemas como o ChatGPT podem gerar respostas convincentes, mas imprecisas, reforçando a necessidade de uso crítico.
Para ele, criar vínculos de confiança com um chatbot pode ser arriscado, já que esses sistemas não têm obrigações reais com o usuário.
