Siga o Olhar Digital no Google Discover
Depois das denúncias de uso do Grok para criar imagens sexualizadas falsas sem consentimento, o debate em torno da inteligência artificial (IA) da xAI avançou. Especialistas em tecnologia e ética apontam ao Olhar Digital que o problema não está apenas na IA em si, mas nas escolhas humanas que moldam como essas ferramentas são criadas, lançadas e usadas.
Ofertas
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
O episódio reacendeu uma discussão mais ampla sobre responsabilidade compartilhada no ecossistema da IA, que envolve empresas, desenvolvedores e usuários, num momento em que a IA se torna cada vez mais presente no cotidiano digital.
O problema não é só a IA, mas as escolhas humanas por trás dela
Para o especialista em tecnologia aplicada a negócios Edson Alves, CEO da Ikatec, tratar a IA como se fosse um “ente isolado” é um erro. “IA não decide sozinha. Ela reflete escolhas humanas, desde quem desenvolve até quem usa”, afirma. Segundo ele, a tecnologia carrega decisões tomadas ao longo de toda a cadeia: do desenho do produto às permissões dadas aos usuários.

Nesse cenário, Alves defende que “as empresas precisam assumir responsabilidade sobre limites, governança e uso indevido”. Ao mesmo tempo, ele alerta: “os usuários precisam entender que liberdade sem critério vira risco coletivo”.
Para Alessandra Montini, diretora do LabData da FIA Business School e colunista do Olhar Digital, aplicar ética a chatbots é um dos grandes desafios atuais porque envolve três níveis de responsabilidade que ainda não estão bem equilibrados.
O primeiro é técnico e moral. “Chatbots aprendem a partir de dados humanos, e dados humanos carregam contradições e falhas éticas”, afirma. “Ensinar uma IA a ‘agir eticamente’ não é como programar uma regra fixa; é tentar traduzir valores humanos, que variam por cultura, contexto e momento histórico, em sistemas probabilísticos.”
O segundo nível é o da responsabilização das empresas. “Embora as empresas criem, treinem e comercializem os chatbots, muitas vezes a responsabilidade fica diluída”, diz. “Quando algo dá errado, surge a pergunta difícil: a falha é do modelo, dos dados, do design do produto ou do uso final? Sem marcos regulatórios claros, empresas tendem a avançar mais rápido na inovação do que na governança ética.”
Já o terceiro nível costuma receber menos atenção: a responsabilidade dos usuários. “O uso intencional para desinformar, manipular ou substituir decisões críticas sem supervisão humana também é uma escolha ética do usuário”, explica. “Transferir toda a culpa para a tecnologia é ignorar o papel ativo de quem a utiliza.”
Críticas crescem, mas apetite por investimento em IA segue alto
Enquanto o debate ético se intensifica, a xAI, empresa de Elon Musk responsável pelo Grok, anunciou uma captação de US$ 20 bilhões (cerca de R$ 107,6 bilhões). O valor superou a meta inicial e foi divulgado em meio às críticas direcionadas à ferramenta de IA, que funciona no X/Twitter (também de Musk).

Segundo a AFP (via G1), a rodada ocorreu justamente quando o Grok passou a ser pressionado internacionalmente por permitir a geração de imagens falsas sexualizadas não autorizadas, inclusive envolvendo mulheres e menores de iade, por meio de configurações como o chamado “Modo Picante”.
Mesmo assim, o interesse dos investidores segue alto. A captação contou com a participação de grandes fundos internacionais e da Nvidia, que vai apoiar a expansão da infraestrutura da xAI com chips e software de IA.
Leia mais:
- Grok é usado para criar imagens sexualizadas falsas, diz mãe de filho de Musk
- Grok: como acessar e usar a IA do X/Twitter
- Como evitar que o X/Twitter use seus posts para treinar IA
A empresa também destacou avanços técnicos recentes, como a ativação de grandes data centers e o uso de mais de um milhão de GPUs para treinar seus modelos. Além disso, a xAI lançou versões do Grok e afirma estar treinando a próxima geração da tecnologia.
Ou seja: de um lado, crescimento acelerado e bilhões em investimento; do outro, questionamentos éticos e pressões por responsabilização. O caso do Grok mostra que a corrida pela IA avança mais rápido do que o debate sobre seus limites. E é justamente essa distância que especialistas apontam como o maior risco no momento.