Filósofo alerta: não há como saber se a IA é consciente

Para pesquisador, limites científicos impedem qualquer teste confiável — agora ou no futuro próximo — sobre consciência artificial
Leandro Costa Criscuolo18/12/2025 13h06
inteligencia_artificial_robo-1920x1054
(Imagem: Gumbariya/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Um filósofo da Universidade de Cambridge afirma que ainda sabemos pouco demais sobre a própria natureza da consciência para determinar se — ou quando — a inteligência artificial poderia atingi-la.

Para o pesquisador Tom McClelland, qualquer tentativa de testar a consciência em máquinas está além do alcance da ciência atual e provavelmente continuará assim por um longo período.

chip de ia
Imagem: BLKstudio/Shutterstock

À medida que a ideia de uma IA consciente deixa a ficção científica e passa a integrar debates regulatórios e éticos, McClelland sustenta que a única posição intelectualmente defensável é o agnosticismo.

“Simplesmente não temos como saber”, argumenta. Segundo ele, essa incerteza não deve ser confundida com indiferença moral, mas com reconhecimento dos limites do conhecimento disponível.

Consciência não é o mesmo que senciência

  • Em artigo publicado na revista Mind and Language, McClelland distingue consciência de senciência — conceito que envolve a capacidade de sentir prazer ou sofrimento.
  • Para ele, apenas a senciência torna uma entidade eticamente relevante. “Um sistema pode ser consciente em algum sentido e ainda assim estar em um estado neutro”, explica. “A ética entra em cena quando há experiências boas ou ruins.”
  • O filósofo observa que avanços como carros autônomos capazes de “perceber” o ambiente seriam tecnologicamente significativos, mas eticamente irrelevantes. A preocupação surgiria apenas se máquinas passassem a desenvolver respostas emocionais.

Leia mais:

IA seguranca
Imagem: Anggalih Prasetya/Shutterstock

Limites científicos e riscos éticos

McClelland também questiona a polarização entre defensores e céticos da consciência artificial. Ambos, segundo ele, dependem de pressupostos que vão além das evidências disponíveis.

“Não temos uma explicação profunda da consciência, nem indícios claros de que ela seja computacional ou exclusivamente biológica”, afirma.

Ele alerta ainda para o uso do tema pela indústria de tecnologia como estratégia de marketing, o que pode distorcer prioridades éticas e científicas.

“Há riscos reais em convencer as pessoas de que possuem máquinas conscientes”, diz. Para McClelland, enquanto nem o senso comum, nem a ciência oferecem respostas confiáveis, a postura mais honesta continua sendo admitir a incerteza.

Em 2025, a IA virou motor corporativo, mas revelou fragilidades causadas por dados ruins. (Imagem: Natee127/iStock)
(Imagem: Natee127/iStock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.