Imagem: Anggalih Prasetya/Shutterstock
Sete empresas de tecnologia entraram na mira das autoridades dos Estados Unidos. A Federal Trade Commission (FTC) anunciou nesta quinta-feira (11) que quer saber se o uso de chatbots de inteligência artificial são seguros para crianças e adolescentes.
Dessa forma, pediu explicações para as companhias. Entre elas estão a Alphabet (dona do Google), Meta (responsável por Instagram, Facebook e WhatsApp), OpenAI (criadora do ChatGPT) e xAI (empresa de IA de Elon Musk).
A agência federal norte-americana disse que os chatbots de IA podem ser usados para simular comunicação semelhante à humana. Além disso, a ferramenta pode reproduzir relações intrapessoais com os usuários.
Por conta disso, é necessário entender quais medidas estão sendo adotadas para “avaliar a segurança desses chatbots ao atuar como companheiros” de menores de idade. Ainda de acordo com a FTC, proteger as crianças online é uma prioridade a Casa Branca.
O órgão informou que está buscando informações sobre como as empresas monetizam conteúdos envolvendo este público, desenvolvem e aprovam personagens, entre outras questões. As empresas citadas não se manifestaram publicamente sobre a questão até o momento. As informações são da CNBC.
Leia mais
Esta post foi modificado pela última vez em 11 de setembro de 2025 21:40