(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)
O Comitê Europeu de Proteção de Dados (EDPB, na sigla em inglês) divulgou um relatório preliminar que coloca em cheque a conformidade do ChatGPT com os padrões de precisão de informação da União Europeia (UE).
Esse documento resulta do trabalho de uma força-tarefa, criada em abril de 2023, para avaliar o modelo de inteligência artificial (IA) generativa da OpenAI, que se tornou extremamente popular globalmente.
Leia mais:
Segundo as avaliações, apesar de haver iniciativas consideráveis por parte da OpenAI para aprimorar o sistema, o ChatGPT ainda enfrenta problemas relacionados à produção de resultados que não correspondem fielmente aos fatos.
Esse desafio impede que o chatbot garanta total conformidade com as normas rígidas de proteção de dados estabelecidas pelo bloco europeu, o que levanta questões importantes sobre sua utilização segura e ética.
A necessidade dessa força-tarefa emergiu após várias autoridades nacionais de proteção de dados de países como Itália, França e Espanha, decidirem iniciar suas próprias investigações sobre o funcionamento e as implicações do uso do ChatGPT.
Essas apurações indicam uma crescente preocupação com a influência e os impactos das ferramentas de IA generativa no cumprimento das leis de proteção de dados.
No texto do relatório, o EDPB apontou que, embora o ChatGPT implemente medidas para promover a transparência e ajudar a evitar mal-entendidos sobre seus resultados, essas iniciativas ainda são insuficientes para atender plenamente ao princípio da precisão dos dados.
Este princípio é fundamental dentro do arcabouço regulatório da proteção de dados da UE, que exige confiabilidade e exatidão nas informações manipuladas por qualquer sistema.
O relatório também menciona que a natureza probabilística da IA do ChatGPT conduz a resultados que podem ser tendenciosos ou completamente fictícios, um fato que complica ainda mais a sua aceitação dentro dos rigorosos padrões europeus.
Além disso, o EDPB expressou preocupação sobre como as informações fornecidas pelo ChatGPT são percebidas pelos usuários finais. Existe o risco de que dados apresentados pelo sistema sejam aceitos como completamente precisos, mesmo quando não correspondem à realidade, especialmente quando envolvem informações sobre indivíduos.
Embora algumas investigações sobre o ChatGPT ainda estejam em curso nos Estados-membros, o panorama geral sugere uma crescente vigilância e eventualmente maior regulamentação para assegurar que o uso de ferramentas de IA generativa como o ChatGPT esteja alinhado com as expectativas de proteção de dados e privacidade da UE.
Esta post foi modificado pela última vez em 28 de maio de 2024 08:48