A Autoridade Nacional de Proteção de Dados (ANPD) exigiu que a Meta disponibilize “versões públicas” de relatórios internos sobre o uso de dados de usuários brasileiros – inclusive, no treinamento de inteligência artificial. Nessas versões, apenas trechos sigilosos (por razões comerciais) devem ser suprimidos.

Os documentos são: o “Relatório de Impacto à Proteção de Dados Pessoais (RIPD)” e dois “testes de balanceamento de legítimo interesse (LIA)”. A princípio, eles estavam restritos por conta de segredo comercial. Então, a ANPD solicitou que a Meta suprima trechos sigilosos e disponibilize o que for de interesse público, segundo o site Núcleo Jornalismo.

publicidade

A ANPD investiga a Meta por conta de alterações na sua política de privacidade. A autarquia alega que a big tech colocou usuários brasileiros – jovens, principalmente – em risco ao usar dados pessoais para treinar sua IA.

Já a Meta disse, em nota enviada ao Olhar Digital no começo de julho, que sua abordagem “cumpre com as leis de privacidade e regulações no Brasil”.

Meta tem até fim de agosto para disponibilizar documentos exigidos pela ANPD

A ANPD deu dez dias úteis para a Meta disponibilizar as “versões públicas” dos documentos técnicos solicitados. Isso foi em 14 de agosto. Assim, o prazo para a entrega vai até por volta de 28 de agosto.

Meta
Meta tem até fim de agosto para disponibilizar documentos solicitados pela ANPD (Imagem: Ink Drop/Shutterstock)

O RIPD e o LIA descrevem como empresas processam as informações pessoais de usuários ou clientes. Os documentos também devem prever medidas para reduzir riscos aos direitos dos usuários.

Suspensão do treinamento de IA com dados de usuários brasileiros

A ANPD determinou, no começo de julho, que a Meta suspendesse o uso de dados pessoais de usuários brasileiros para treinar sistemas de IA. A autorização para esse tipo de uso constava na política de privacidade da big tech que tinha entrado em vigor no final de junho.

Leia mais:

meta
ANPD alega que política da Meta para usar dados pessoais para treinar IA representa risco para usuários (Imagem: mundissima/Shutterstock)

No entendimento da autarquia, a nova política trazia “riscos de dano grave e de difícil reparação aos usuários”. Na época, um porta-voz da Meta disse ao Olhar Digital que a empresa estava desapontada com a decisão da ANPD.

Depois, a ANPD deu mais tempo para a Meta enviar a documentação que atestasse a suspensão do uso de dados de usuários brasileiros para treinar sua IA. Quando determinada, em 02 de julho, a ordem exigia cumprimento imediato. E a multa prevista era de R$ 50 mil por dia de descumprimento.