Empresa precisa mudar forma de uso dos dados sensíveis de seus usuários (Imagem: Cristian Valderas/Shutterstock)
A Autoridade Nacional de Proteção de Dados (ANPD) exigiu que a Meta disponibilize “versões públicas” de relatórios internos sobre o uso de dados de usuários brasileiros – inclusive, no treinamento de inteligência artificial. Nessas versões, apenas trechos sigilosos (por razões comerciais) devem ser suprimidos.
Os documentos são: o “Relatório de Impacto à Proteção de Dados Pessoais (RIPD)” e dois “testes de balanceamento de legítimo interesse (LIA)”. A princípio, eles estavam restritos por conta de segredo comercial. Então, a ANPD solicitou que a Meta suprima trechos sigilosos e disponibilize o que for de interesse público, segundo o site Núcleo Jornalismo.
A ANPD investiga a Meta por conta de alterações na sua política de privacidade. A autarquia alega que a big tech colocou usuários brasileiros – jovens, principalmente – em risco ao usar dados pessoais para treinar sua IA.
Já a Meta disse, em nota enviada ao Olhar Digital no começo de julho, que sua abordagem “cumpre com as leis de privacidade e regulações no Brasil”.
A ANPD deu dez dias úteis para a Meta disponibilizar as “versões públicas” dos documentos técnicos solicitados. Isso foi em 14 de agosto. Assim, o prazo para a entrega vai até por volta de 28 de agosto.
O RIPD e o LIA descrevem como empresas processam as informações pessoais de usuários ou clientes. Os documentos também devem prever medidas para reduzir riscos aos direitos dos usuários.
A ANPD determinou, no começo de julho, que a Meta suspendesse o uso de dados pessoais de usuários brasileiros para treinar sistemas de IA. A autorização para esse tipo de uso constava na política de privacidade da big tech que tinha entrado em vigor no final de junho.
Leia mais:
No entendimento da autarquia, a nova política trazia “riscos de dano grave e de difícil reparação aos usuários”. Na época, um porta-voz da Meta disse ao Olhar Digital que a empresa estava desapontada com a decisão da ANPD.
Depois, a ANPD deu mais tempo para a Meta enviar a documentação que atestasse a suspensão do uso de dados de usuários brasileiros para treinar sua IA. Quando determinada, em 02 de julho, a ordem exigia cumprimento imediato. E a multa prevista era de R$ 50 mil por dia de descumprimento.
Esta post foi modificado pela última vez em 24 de agosto de 2024 08:19