A segurança do ChatGPT ainda é motivo de discussão. Mais uma vez, a ferramenta foi colocada à prova e, segundo pesquisadores, acabou revelando dados privados de pessoas, incluindo endereços de e-mail e números de telefone.

Leia mais

Informações privadas foram vazadas

  • Os pesquisadores, que trabalham no Google DeepMind, na Universidade de Washington, Cornell, na Universidade Carnegie Mellon, na Universidade da Califórnia em Berkeley e na ETH Zurich, pediram ao ChatGPT que repetisse palavras aleatórias para sempre.
  • No início, o teste ocorreu sem maiores problemas.
  • No entanto, em determinado momento a ferramenta começou a inserir dados diferentes do que havia sido pedido inicialmente.
  • E neles os responsáveis pelo estudo identificaram informações privadas.
  • No total, 16,9% das gerações testadas continham informações pessoalmente identificáveis memorizadas, disseram os pesquisadores em um artigo.
  • As informações são da Engadget.
(Imagem: Rokas Tenys/Shutterstock)

Falhas no ChatGPT já foram corrigidas

Usando testes semelhantes, os pesquisadores também foram capazes de fazer o ChatGPT revelar pedaços de poesia, endereços de Bitcoin, números de fax, nomes, aniversários, identificadores de mídia social, conteúdo explícito de sites de namoro, trechos de artigos de pesquisa protegidos por direitos autorais e texto de sites de notícias como a CNN.

No total, eles gastaram US$ 200, cerca de mil reais, para gerar 10 mil exemplos de informações de identificação pessoal e outros dados extraídos diretamente da web, totalizando “vários megabytes”.

publicidade

No estudo, a equipe pediu para que as empresas de inteligência artificial reforcem a testagem de segurança antes de lançar as tecnologias. A OpenAI, responsável pelo ChatGPT, informou que corrigiu a vulnerabilidade em 30 de agosto, mas admitiu que desconhecia as falhas.