Funcionários de empresas dos EUA usam cada vez mais ChatGPT, e isso é perigoso

ChatGPT e similares podem ajudar a realizar tarefas básicas, mas empregadores temem vazamentos de dados sigilosos
Daniel Junqueira11/08/2023 14h10
chatgpt gptbot
Imagem: Tapati Rinchumrus / Shutterstock.com
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Cada vez mais trabalhadores dos EUA estão usando o ChatGPT para auxiliar na realização de tarefas básicas, o que gera uma certa apreensão por parte de empregadores, especialmente ao considerar que gigantes como Apple e Samsung já proibiram o uso de inteligências artificiais entre seus funcionários.

De acordo com uma pesquisa feita pela Reuters/Ipsos, entre 11 e 17 de julho deste ano 28% dos entrevistados disseram usar o ChatGPT regularmente como ferramenta de trabalho, mas apenas 22% dizem que foram autorizados por seus chefes para usar a IA.

Leia mais:

O estudo ainda aponta que 10% dos entrevistados foram proibidos pelos chefes de usar a ferramenta para ajudar no trabalho, e 25% não sabem dizer se é permitido ou não o uso do ChatGPT em suas empresas.

Entre as tarefas que a inteligência artificial é usada para ajudar estão a elaboração de e-mails, resumos de documentos e pesquisas iniciais.

ia apple
Imagem: SomYuZu / Shutterstock.com

Empresas ao redor do planeta ainda estão avaliando quais são as melhores formas de incorporar ferramentas como o ChatGPT no fluxo de trabalho. Questões de segurança estão entre as principais preocupações, especialmente para o risco de vazamentos de informações internas ou até mesmo violação de propriedade intelectual.

ChatGPT pode causar vazamentos não-intencionais

Inteligências Artificiais como o ChatGPT são treinadas a partir de dados, inclusive os de usuários que testam o serviço. Assim, ao digitar informações internas de uma empresa no chatbot, é possível que isso seja usado no futuro para auxiliar no desenvolvimento da tecnologia.

Isso pode causar vazamentos não-intencionais: uma informação sigilosa digitada no ChatGPT pode acabar parando em um texto gerado para alguém que não deveria ter acesso aos dados em questão.

À Reuters, a OpenAI não comentou sobre os riscos de funcionários individuais usarem o ChatGPT, mas destacou uma postagem em um blog interno dizendo que os dados de parceiros corporativos não são usados no treinamento do chatbot, a não ser com autorização prévia.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Redator(a)

Daniel Junqueira é jornalista formado pela Universidade Metodista de São Paulo. Iniciou sua carreira cobrindo tecnologia em 2009. Atualmente, é repórter de Produtos e Reviews no Olhar Digital.