Os chatbots de inteligência artificial, como ChatGPT da OpenAI e Bard do Google, têm avançado rapidamente, gerando preocupações sobre privacidade e segurança dos usuários. Especialistas afirmam que o impacto dessas tecnologias na privacidade depende do treinamento dos bots e do nível de interação planejada com os usuários. Esses chatbots têm acesso a grandes volumes de dados, como os do repositório Common Crawl, tornando difícil filtrar completamente as informações utilizadas.

Leia mais:

Ocorreram casos em que os chatbots divulgaram informações pessoais, como números de telefone. Embora seja improvável que a OpenAI colete informações sensíveis intencionalmente, a possibilidade de dados privados serem incorporados aos modelos é real.

A OpenAI não se manifestou sobre medidas de proteção à privacidade e não explicou como lida com informações pessoais identificáveis em seus conjuntos de treinamento. Por outro lado, o Google afirma ter programado medidas de segurança no Bard para evitar o compartilhamento de informações pessoais identificáveis durante as conversas.

publicidade

O uso do software também pode representar riscos à privacidade. As políticas da OpenAI e do Google mencionam várias categorias de informações coletadas sobre os usuários, algumas potencialmente identificáveis.

Além disso, o ChatGPT informa que as conversas podem ser revisadas por seus treinadores de IA para melhorar os sistemas. A transparência nas políticas de privacidade e nos procedimentos de proteção de dados é essencial para construir e manter a confiança dos usuários.

Cuidado com os dados que você compartilha com os chatbots

chatgpt
Imagem: shutterstock/Tapati Rinchumrus

Apesar de existir a opção de “limpar conversas”, isso não exclui os dados dos usuários de forma definitiva dos chatbots. A única maneira de remover informações pessoais identificáveis fornecidas ao ChatGPT, por exemplo, é excluir a conta do usuário, o que resultaria na remoção permanente de todos os dados associados. No caso do Google, os usuários podem excluir as conversas e informações dadas através da plataforma.

A segurança das informações armazenadas é uma preocupação válida. Em março, o ChatGPT ficou offline devido a um erro de programação que revelou informações sobre o histórico de bate-papo dos usuários. Ainda é incerto se os registros de bate-papo dessas IAs se tornarão alvos valiosos para atores mal-intencionados no futuro.

Especialistas aconselham tratar os chatbots com a mesma cautela aplicada a outros produtos tecnológicos. Os usuários devem estar cientes de que qualquer interação com esses modelos pode ser utilizada pelas empresas para seu próprio benefício.

A privacidade e a segurança continuarão sendo pontos críticos à medida que essas tecnologias avançam e se popularizam. Assim, essa discussão ainda deve prolongar bastante, assim como a regulamentação de plataformas e ferramentas baseadas em IA.

Fonte: Engadget

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!