O ChatGPT, da OpenAI, tornou-se nesta segunda-feira (29) alvo oficial de reclamação de privacidade na União Europeia (UE). De acordo com a Reuters, a plataforma é acusada de não corrigir informações incorretas, violando as regras do bloco. 

O que você precisa saber: 

publicidade
  • Segundo o NOYB, famoso grupo ativista das leis de privacidade e prática corporativa na Europa, o ChatGPT oferece informações erradas sobre a organização; 
  • Ao solicitar a correção, a controladora do chatbot teria se recusado a corrigir os detalhes ou apagar os dados; 
  • Para eles, o chatbot deveria ao menos dizer aos usuários que não possui os dados necessários, e não divulgar informações incorretas; 
  • A NOYB apresentou uma queixa à autoridade austríaca de proteção de dados pedindo uma investigação sobre o processamento de dados da OpenAI; 
  • A organização também quer medidas para garantir a precisão dos dados pessoais processados pelos grandes modelos de linguagem da empresa. 

Leia mais!

Está claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da UE, ao processar dados sobre indivíduos. Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário. 

Maartje de Graaf, advogado da NOYB, em comunicado.

Vale lembrar que a OpenAI já reconheceu, em outra ocasião, a tendência de ferramentas como ChatGPT de responder com “respostas que parecem plausíveis, mas incorretas ou sem sentido”, um problema que considera difícil de corrigir. 

publicidade

OpenAI na mira das autoridades 

Neste cenário, não é, claro, a primeira vez que a startup vira alvo de uma reclamação do tipo, entrando na mira de autoridades — principalmente na UE, agora com as regras mais rígidas da Lei dos Mercados Digitais (DMA) e Lei dos Serviços Digitais (DSA) em vigor no país. 

No ano passado, autoridades federais dos EUA abriram uma investigação contra a OpenAI para saber como a startup lidava com respostas erradas no ChatGPT. A FTC apontou o potencial do chatbot para gerar declarações “falsas, enganosas e depreciativas” sobre pessoas reais. Veja mais aqui