OpenAI recebe queixas sobre privacidade na Áustria

Grupo de advocacia quer investigação após ChatGPT responder equivocadamente questões sobre uma figura pública austríaca
Por Leandro Costa Criscuolo, editado por Bruno Ignacio de Lima 30/04/2024 02h00
ChatGPT
Imagem: T. Schneider/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Na segunda-feira, a OpenAI foi alvo de uma reclamação formal sobre questões de privacidade. O grupo de advocacia NOYB acusa a startup de supostamente não corrigir informações erradas fornecidas por seu chatbot de IA generativo, o ChatGPT, algo que violaria as regras de privacidade da União Europeia. As informações são da Reuters.

Leia mais:

O ChatGPT, é o assistente de IA que iniciou o “boom” das inteligências artificiais generativas, no final de 2022. O chatbot pode imitar conversas humanas e realizar tarefas como criar resumos de textos longos, escrever poemas e até gerar ideias para uma festa temática.

Martelo de tribunal ao lado de celular com ChatGPT aberto em navegador com bandeira da União Europeia ao fundo
(Imagem: Ascannio/Shutterstock)

Como o ChatGPT forneceu informações incorretas

  • Segundo o NOYB, a pessoa que eles representam no caso, que também é uma figura pública, perguntou ao ChatGPT sobre seu aniversário e recebeu repetidamente informações incorretas.
  • Neste caso, o chatbot deveria dizer ao usuário que não possui os dados necessários para responder.
  • A OpenAI recusou o pedido da queixa para retificar ou apagar os dados, afirmando que não era possível corrigir os dados e que também não divulgou qualquer informação sobre os dados processados, suas fontes ou destinatários.

“Está claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da União Europeia, ao processar dados sobre indivíduos”, disse Maartje de Graaf, advogado de proteção de dados da NOYB, em comunicado.

Na queixa, a NOYB apresentou para autoridades austríacas de proteção de dados um pedido de investigação sobre o processamento de dados da OpenAI e que medidas a startup toma que podem garantir a precisão de dados pessoais que os modelos de linguagem fabricados por eles processam.

“Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário”, acrescentou de Graaf.

A OpenAI já chegou a admitir no passado que exista uma tendência da ferramenta de responder com “respostas que parecem plausíveis, mas incorretas ou sem sentido”, e que se trata de um problema difícil de corrigir.

OpenAI ChatGPT
Imagem: Markus Mainka/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Ignacio é jornalista formado pela Faculdade Cásper Líbero. Com 10 anos de experiência, é especialista na cobertura de tecnologia. Atualmente, é editor de Dicas e Tutoriais no Olhar Digital.