Pro

Samsung desenvolve IA após incidentes no ChatGPT

A Samsung está desenvolvendo sua própria IA (inteligência artificial) generativa, tecnologia que “alimenta” chatbots como o ChatGPT, da OpenAI. Por ora, ideia é usá-la como ferramenta interna de trabalho. Ou seja, vai lançar apenas para seus funcionários.

Decisão veio após três incidentes na empresa sul-coreana. Neles, funcionários vazaram dados confidenciais no ChatGPT ao tentarem otimizar tarefas do dia a dia.

Leia mais:

O que rolou no ChatGPT

Três funcionários da Samsung vazarem dados confidenciais no chatbot da OpenAI por acidente (Imagem: Reprodução)

A Samsung liberou o uso do ChatGPT, como ferramenta de trabalho, em suas divisões de semicondutores e dispositivos. Mas no mês logo após essa liberação, ocorreram os três incidentes. Foram eles:

  • Um colaborador pediu que a I.A otimizasse o programa que identifica quais fábricas estão eficientes e quais estão faltando desempenho;
  • Outro funcionário publicou o código-fonte do programa de mensuração dos bancos de dados de uma fábrica (para que o ChatGPT encontrasse erros);
  • Um terceiro funcionário pediu para o chatbot criar uma ata de reunião.

Após os incidentes, a sul-coreana pediu que seus funcionários redobrassem cuidados ao usarem o chatbot. E com razão, porque a própria OpenAI recomenda que os usuários não compartilhem informações sigilosas com o chatbot.

Privacidade e segurança nos chatbots

Com o avanço acelerado de chatbots como ChatGPT, vem a preocupação com segurança e privacidade (Imagem: Shutterstock)

O avanço acelerado de chatbots de IA, como ChatGPT e Bard (do Google), tem gerado preocupações sobre o que eles sabem sobre nós e com quem compartilham dados. Isso porque têm acesso a grandes volumes de dados, como os do repositório Common Crawl, tornando difícil filtrar completamente as informações utilizadas.

Ocorreram casos em que os chatbots divulgaram informações pessoais, como números de telefone. Embora seja improvável que a OpenAI colete informações sensíveis intencionalmente, a possibilidade de dados privados serem incorporados aos modelos é real.

A OpenAI não se manifestou sobre medidas de proteção à privacidade e não explicou como lida com informações pessoais identificáveis em seus conjuntos de treinamento. Por outro lado, o Google afirma ter programado medidas de segurança no Bard para evitar o compartilhamento de informações pessoais identificáveis durante as conversas.

Com informações de StartSe

Imagem de destaque: Pedro Spadoni / Olhar Digital

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Esta post foi modificado pela última vez em 11 de abril de 2023 11:35

Compartilhar
Publicado por
Pedro Spadoni
carregando anúncio…