A Samsung está desenvolvendo sua própria IA (inteligência artificial) generativa, tecnologia que “alimenta” chatbots como o ChatGPT, da OpenAI. Por ora, ideia é usá-la como ferramenta interna de trabalho. Ou seja, vai lançar apenas para seus funcionários.
Decisão veio após três incidentes na empresa sul-coreana. Neles, funcionários vazaram dados confidenciais no ChatGPT ao tentarem otimizar tarefas do dia a dia.
Leia mais:
- Funcionários da Microsoft e Google alertam sobre chatbots
- Mais um? Gigante chinesa lança chatbot rival do ChatGPT
- Alibaba abre seu chatbot de IA para testes
O que rolou no ChatGPT
A Samsung liberou o uso do ChatGPT, como ferramenta de trabalho, em suas divisões de semicondutores e dispositivos. Mas no mês logo após essa liberação, ocorreram os três incidentes. Foram eles:
- Um colaborador pediu que a I.A otimizasse o programa que identifica quais fábricas estão eficientes e quais estão faltando desempenho;
- Outro funcionário publicou o código-fonte do programa de mensuração dos bancos de dados de uma fábrica (para que o ChatGPT encontrasse erros);
- Um terceiro funcionário pediu para o chatbot criar uma ata de reunião.
Após os incidentes, a sul-coreana pediu que seus funcionários redobrassem cuidados ao usarem o chatbot. E com razão, porque a própria OpenAI recomenda que os usuários não compartilhem informações sigilosas com o chatbot.
Privacidade e segurança nos chatbots
O avanço acelerado de chatbots de IA, como ChatGPT e Bard (do Google), tem gerado preocupações sobre o que eles sabem sobre nós e com quem compartilham dados. Isso porque têm acesso a grandes volumes de dados, como os do repositório Common Crawl, tornando difícil filtrar completamente as informações utilizadas.
Ocorreram casos em que os chatbots divulgaram informações pessoais, como números de telefone. Embora seja improvável que a OpenAI colete informações sensíveis intencionalmente, a possibilidade de dados privados serem incorporados aos modelos é real.
A OpenAI não se manifestou sobre medidas de proteção à privacidade e não explicou como lida com informações pessoais identificáveis em seus conjuntos de treinamento. Por outro lado, o Google afirma ter programado medidas de segurança no Bard para evitar o compartilhamento de informações pessoais identificáveis durante as conversas.
Com informações de StartSe
Imagem de destaque: Pedro Spadoni / Olhar Digital
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!