A Samsung está desenvolvendo sua própria IA (inteligência artificial) generativa, tecnologia que “alimenta” chatbots como o ChatGPT, da OpenAI. Por ora, ideia é usá-la como ferramenta interna de trabalho. Ou seja, vai lançar apenas para seus funcionários.

Decisão veio após três incidentes na empresa sul-coreana. Neles, funcionários vazaram dados confidenciais no ChatGPT ao tentarem otimizar tarefas do dia a dia.

Leia mais:

O que rolou no ChatGPT

Pessoa acessando ChatGPT pelo celular e notebook
Três funcionários da Samsung vazarem dados confidenciais no chatbot da OpenAI por acidente (Imagem: Reprodução)

A Samsung liberou o uso do ChatGPT, como ferramenta de trabalho, em suas divisões de semicondutores e dispositivos. Mas no mês logo após essa liberação, ocorreram os três incidentes. Foram eles:

publicidade
  • Um colaborador pediu que a I.A otimizasse o programa que identifica quais fábricas estão eficientes e quais estão faltando desempenho;
  • Outro funcionário publicou o código-fonte do programa de mensuração dos bancos de dados de uma fábrica (para que o ChatGPT encontrasse erros);
  • Um terceiro funcionário pediu para o chatbot criar uma ata de reunião.

Após os incidentes, a sul-coreana pediu que seus funcionários redobrassem cuidados ao usarem o chatbot. E com razão, porque a própria OpenAI recomenda que os usuários não compartilhem informações sigilosas com o chatbot.

Privacidade e segurança nos chatbots

Trecho de conversa com ChatGPT em celular com tela de login no chatbot aberta em tela ao fundo
Com o avanço acelerado de chatbots como ChatGPT, vem a preocupação com segurança e privacidade (Imagem: Shutterstock)

O avanço acelerado de chatbots de IA, como ChatGPT e Bard (do Google), tem gerado preocupações sobre o que eles sabem sobre nós e com quem compartilham dados. Isso porque têm acesso a grandes volumes de dados, como os do repositório Common Crawl, tornando difícil filtrar completamente as informações utilizadas.

Ocorreram casos em que os chatbots divulgaram informações pessoais, como números de telefone. Embora seja improvável que a OpenAI colete informações sensíveis intencionalmente, a possibilidade de dados privados serem incorporados aos modelos é real.

A OpenAI não se manifestou sobre medidas de proteção à privacidade e não explicou como lida com informações pessoais identificáveis em seus conjuntos de treinamento. Por outro lado, o Google afirma ter programado medidas de segurança no Bard para evitar o compartilhamento de informações pessoais identificáveis durante as conversas.

Com informações de StartSe

Imagem de destaque: Pedro Spadoni / Olhar Digital

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!