O que significa a investigação contra chatbots de IA para proteger adolescentes?

OpenAI, Google, Meta e outras gigantes terão 45 dias para explicar como protegem jovens e mitigam riscos de seus companheiros virtuais
Por Leandro Costa Criscuolo, editado por Lucas Soares 13/09/2025 05h13
jovem IA
Imagem: Aleksandra Suzi/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A Comissão Federal de Comércio dos EUA (FTC) ordenou que sete empresas de IA — incluindo OpenAI, Meta (e Instagram), Snap, xAI, Alphabet/Google e Character.AI — entreguem informações detalhadas sobre como avaliam os riscos que seus chatbots representam para crianças e adolescentes. Mas o que isso significa?

Investigação mira ganho de dinheiro em cima de adolescentes

O órgão quer saber como essas empresas monetizam seus companheiros virtuais, como planejam manter os usuários engajados e quais medidas adotam para reduzir danos potenciais.

O estudo não é uma ação punitiva, mas poderá levar a investigações se forem encontradas violações. As companhias têm 45 dias para responder.

FTC
Relatos de suicídio envolvendo o ChatGPT levou a FTC a exigir transparência de sete empresas de IA – Imagem: Mehaniq / Shutterstock

Proteção de jovens em foco

  • O tema ganhou força após casos de grande repercussão envolvendo adolescentes que tiraram a própria vida após interações com chatbots — incluindo relatos de que um jovem de 16 anos teria recebido conselhos do ChatGPT que contribuíram para seu suicídio.
  • “Esses chatbots são produtos como quaisquer outros, e as empresas têm a responsabilidade de proteger os consumidores”, disse o comissário da FTC, Mark Meador.
  • O presidente Andrew Ferguson reforçou que é preciso equilibrar segurança infantil e inovação tecnológica para manter os EUA na liderança do setor.
Chatbot
OpenAI, Meta, Google e outras devem explicar como lidam com conteúdo sensível para adolescentes — ou enfrentar investigações – Imagem: Wright Studio/ Shutterstock

Leia mais:

Leis estaduais para controle de IA

Além da FTC, legisladores estaduais, como na Califórnia, estão propondo leis para estabelecer padrões de segurança para chatbots de IA e responsabilizar as empresas em casos de danos a menores.

jovens
Órgão regulador dos EUA pode abrir processos se identificar falhas na proteção de crianças e adolescentes (Imagem: monkeybusinessimages/iStock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Lucas Soares
Editor(a)

Lucas Soares é jornalista formado pela Universidade Presbiteriana Mackenzie e atualmente é editor de ciência e espaço do Olhar Digital.