Apesar de facilitar diversos processos, alguns cuidados são necessários ao utilizar chatbots movidos por inteligência artificial generativa. Entre eles, evitar o compartilhamento de informações pessoais sensíveis.

Outros procedimentos são igualmente importantes, como verificar a fonte das informações geradas pela IA, por exemplo. A seguir, veja cinco dicas para se proteger ao usar o ChatGPT, Gemini e afins.

publicidade
Imagem para ilustrar tutorial sobre o ChatGPT
Imagem: Koshiro K/Shutterstock.

Não compartilhe informações pessoais sensíveis

Evite sempre fornecer dados com seu nome completo, endereço, telefone e afins ao utilizar os sistemas de inteligência artificial generativa. Essa precaução ajuda a evitar que as informações sejam vazadas ou utilizadas para treinamento dos modelos.

Verifique as fontes das informações

As respostas geradas por IAs são baseadas em dados disponíveis na internet, que nem sempre são precisos ou atualizados. Sempre verifique a validade das informações fornecidas, especialmente se forem importantes para decisões significativas.

publicidade
Letra G estilizada do Google ao lado de um smartphone exibindo o logo do Gemini
Gemini é o carro-chefe da empresa quando se fala de IA (Imagem: Poetra.RH/Shutterstock)

Leia mais:

Revise permissões

Ao utilizar aplicativos que integram os sistemas do ChatGPT, Gemini e afins, verifique e revise regularmente as permissões que você concedeu. Certifique-se de que o aplicativo não tenha acesso desnecessário a seus dados pessoais ou dispositivos.

publicidade

Esteja atento a políticas de privacidade:

Leia as políticas de privacidade dos serviços de IA que você utiliza para entender como os seus dados são coletados, armazenados e utilizados. Se algo parecer inadequado ou inseguro, considere alternativas mais seguras ou compatíveis com as suas necessidades.

Use senhas fortes e autenticação de dois fatores (2FA)

Além de utilizar senhas fortes, com letras maiúsculas, números e símbolos, é importante ativar a autenticação de dois fatores nas contas do Google, OpenAI e mais. Esse procedimento adiciona uma camada extra de segurança e dificulta acessos não autorizados mesmo com vazamento de credenciais, por exemplo.