A OpenAI, dona do ChatGPT, foi processada por supostamente roubar informações pessoais para treinar a IA (inteligência artificial) do chatbot. O processo é coletivo e foi aberto por meio de um escritório de advocacia da Califórnia, nos EUA.
Para quem tem pressa:
- Um processo coletivo, aberto por um escritório de advocacia nos EUA, acusa a OpenAI de roubar informações pessoais para treinar o ChatGPT;
- A alegação é que a IA do chatbot violou os direitos autorais e a privacidade de milhões (talvez bilhões) de usuários;
- Um dos sócios do escritório disse que a empresa quer representar “pessoas reais cujas informações foram roubadas e desviadas comercialmente”;
- Além de indenizações, o processo pede que a Justiça suspenda o acesso comercial e o desenvolvimento adicional de produtos da OpenAI.
No entanto, os autores não quiseram se identificar, por temerem represálias. Eles alegam que a IA do ChatGPT violou os direitos autorais e a privacidade de muitos usuários ao utilizar dados públicos da internet no seu treinamento.
Representantes da OpenAI, uma empresa privada apoiada pela Microsoft Corp, não responderam imediatamente a um pedido de comentário.
Leia mais:
- Quer entender o que a geração Z fala? O ChatGPT traduz para você
- ChatGPT e IA: o que os chatbots sabem sobre nós e com quem compartilham dados?
- Aprenda a usar o ChatGPT: 10 dicas valiosas para criar perguntas precisas
Ao jornal The Washington Post, um dos sócios do escritório, Ryan Clarkson, disse que a empresa quer representar “pessoas reais cujas informações foram roubadas e desviadas comercialmente para criar essa tecnologia muito poderosa”.
Além de indenizações, o processo pede que a Justiça suspenda o acesso comercial e o desenvolvimento adicional de produtos da OpenAI.
ChatGPT, privacidade e direitos autorais

A legalidade do uso de dados públicos para treinar IA ainda é uma questão em aberto. Alguns argumentam que todo conteúdo público na internet pode ser considerado fair use (“uso justo”, em tradução livre).
O processo contra a OpenAI pretende testar uma nova teoria jurídica que está se popularizando nos Estados Unidos. Ela sustenta que a empresa violou os direitos de milhões (provavelmente bilhões) de usuários ao não solicitar o consentimento antes de usar publicações na internet para testar seu modelo de IA.
Por conta dessas complicações e precedentes de direitos autorais e privacidade, alguns blogs, veículos e até redes sociais estão pensando em maneiras de impedir que seu conteúdo seja usado para treinar modelos de IA sem o pagamento devido.
Aliás, esse é um dos motivos que levou o Reddit a privatizar sua API — o que revoltou seus usuários, que organizaram uma espécie de apagão na rede social.
Com informações de The Washington Post (em inglês)
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!