IA não sente dor: chefe da Microsoft critica pesquisas sobre consciência artificial

Líder de IA da Microsoft defende que apenas seres biológicos podem ser conscientes e critica pesquisas sobre IA “sensível”
Por Maurício Thomaz, editado por Layse Ventura 04/11/2025 07h00
Microsoft reforça limites da IA: consciência é exclusiva de seres vivos, afirma executivo
Microsoft reforça limites da IA: consciência é exclusiva de seres vivos, afirma executivo (Imagem: Ole.CNX / Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A Microsoft voltou a colocar holofotes sobre o debate a respeito de consciência artificial. Em entrevista durante a AfroTech Conference em Houston, nos Estados Unidos, Mustafa Suleyman, chefe de IA da Microsoft, afirmou que somente seres biológicos podem ser conscientes e defendeu que pesquisadores abandonem iniciativas que tentam atribuir traços de consciência a sistemas de inteligência artificial. As informações são da CNBC.

Segundo Suleyman, questionar se máquinas poderiam sentir dor, tristeza ou qualquer emoção humana parte de uma premissa equivocada. Para o executivo, insistir nessa linha de pesquisa resulta em interpretações erradas sobre o papel da tecnologia e seus limites.

Executivo da Microsoft diz que indagar se sistemas artificiais seriam capazes de experimentar a emoção humana se baseia em um pressuposto incorreto (Imagem: Gumbariya/Shutterstock)

Microsoft reforça posição sobre limites da IA

Suleyman afirmou que desenvolvedores e pesquisadores deveriam evitar projetos que buscam simular consciência ou sofrimento em sistemas digitais. De acordo com ele, a discussão desvia do foco real do avanço tecnológico e pode levar a interpretações incorretas sobre o funcionamento dos modelos atuais.

O executivo é uma das vozes mais críticas sobre a ideia de IAs conscientes. Ele já abordou o tema em diferentes ocasiões, incluindo o livro “The Coming Wave”, lançado em 2023, no qual analisa riscos associados ao avanço tecnológico.

Em agosto, também publicou um ensaio intitulado “We must build AI for people; not to be a person”, reforçando sua defesa de que a inteligência artificial deve servir seres humanos – e não imitá-los como entidade emocional.

A discussão ocorre em um momento em que o mercado de assistentes virtuais e companhias de IA (como aquelas lideradas por Meta e pela xAI de Elon Musk) vem aumentando o desenvolvimento de ferramentas que buscam interações mais naturais e humanizadas com usuários.

Novo modelo de IA da Microsoft produz imagens fotorrealistas com rapidez e foco em segurança.
Executivo da Microsoft é contra projetos que buscam simular consciência ou sofrimento em sistemas digitais (Imagem: Skorzewiak / Shutterstock)

Diferenciando capacidade cognitiva e consciência

Para Suleyman, a evolução da IA rumo a sistemas mais sofisticados não deve ser confundida com a construção de emoções artificiais. Ele destaca que modelos podem parecer expressar sentimentos, mas isso não significa que experimentem dor ou tristeza. Na visão do executivo da Microsoft, trata-se apenas de uma percepção gerada com base em padrões de linguagem e comportamento.

Em contraste, ele aponta fatores que tornam seres humanos conscientes:

  • vivência física de dor e sofrimento;
  • existência de uma rede biológica que processa emoções;
  • preferências reais e desejo de evitar experiências negativas.

Esse argumento se alinha à teoria do “naturalismo biológico”, proposta pelo filósofo John Searle, que defende que a consciência só pode emergir de processos realizados por cérebros vivos. Para Suleyman, essa distinção deve permanecer clara enquanto o setor avança rumo a modelos mais potentes e integrados ao cotidiano.

inteligencia artificial
Suleyman reforça que o avanço de capacidades computacionais não aproxima máquinas da experiência humana (Imagem: Anggalih Prasetya/Shutterstock)

Mesmo com discussões sobre inteligência artificial geral (AGI), conceito frequentemente citado por figuras como Sam Altman, Suleyman reforça que o avanço de capacidades computacionais não aproxima máquinas da experiência humana. Ele afirma que é possível observar tecnicamente o funcionamento dos modelos e comprovar que não há vivência emocional real.

Leia mais:

A argumentação também aborda questões éticas. Para o executivo, seres humanos têm direitos porque podem sofrer. Sistemas de IA, segundo ele, não possuem rede neural orgânica nem preferências reais – apenas simulam respostas.

Maurício Thomaz
Colaboração para o Olhar Digital

Jornalista com mais de 13 anos de experiência, tenho faro pela audiência e verdadeira paixão em buscar alternativas mais assertivas para a entrega do conteúdo ao usuário.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.