A Samsung proibiu o uso de ferramentas de IA (inteligência artificial) generativas – por exemplo, ChatGPT – em suas redes internas e dispositivos da empresa. A sul-coreana teme que upload de informações confidenciais para essas plataformas represente risco à segurança corporativa, segundo a Bloomberg.

Regra foi comunicada à equipe num memorando. Segundo o documento, restrição é temporária, enquanto a Samsung trabalha para “criar um ambiente seguro” para usar com segurança ferramentas desse tipo.

publicidade

Leia mais:

ChatGPT espião?

Trecho de conversa com ChatGPT em celular com tela de login no chatbot aberta em tela ao fundo
Samsung também pediu que funcionários não usassem ChatGPT em seus aparelhos pessoais (Imagem: Shutterstock)

O maior fator de risco, sob a perspectiva da Samsung, é, provavelmente, o ChatGPT, da OpenAI. Chatbot se tornou extremamente popular não apenas como brinquedo para entretenimento, mas como ferramenta para ajudar em trabalhos sérios. Dá para usar o sistema para resumir relatórios ou escrever respostas a e-mails – mas isso pode significar inserir informações confidenciais, às quais a OpenAI também pode ter acesso.

publicidade

Riscos de privacidade envolvidos no uso do ChatGPT variam de acordo com a forma como o usuário acessa o serviço. Se uma empresa é API – interface para criar softwares/aplicativos que se comunicam com outras plataformas – do ChatGPT, conversas com o chatbot não são visíveis para equipe de suporte da OpenAI nem usadas para treinar modelos de linguagem da empresa. No entanto, isso não se aplica ao texto inserido na interface geral da web, usando suas configurações padrão.

Num FAQ, empresa diz que analisa conversas que usuários têm com o ChatGPT para melhorar seus sistemas e garantir que cumpra suas políticas e requisitos de segurança. Ele aconselha usuários a não “compartilhar informações confidenciais em suas conversas” e observa que qualquer conversa também pode ser usada para treinar versões futuras do ChatGPT. Empresa lançou recentemente um recurso semelhante ao “modo anônimo” de um navegador, que não salva históricos de bate-papo e os impede de serem usados ​​para treinamento.

publicidade

Preocupações da Samsung

Logomarca da Samsung com imagem de pessoa acessando chatbot num notebook ao fundo
Depois de funcionários vazarem dados sigilosos no chatbot da OpenAI, Samsung decidiu criar sua própria IA generativa (Imagem: Pedro Spadoni/Olhar Digital)

A empresa sul-coreana está evidentemente preocupada com funcionários usando ferramenta despretensiosamente, sem perceber risco potencial à segurança corporativa.

A sede está revisando medidas de segurança para criar ambiente seguro para usar com segurança a IA generativa para aumentar produtividade e eficiência dos funcionários. No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente uso de IA generativa.

Memorando da Samsung

Além de restringir uso de IA generativa em computadores, telefones e tablets da empresa, a Samsung pediu aos funcionários que não façam upload de informações comerciais confidenciais por meio de seus aparelhos pessoais.

publicidade

“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, disse o memorando da Samsung. A gigante tecnológica sul-coreana confirmou a autenticidade do memorando à Bloomberg.

Contexto

Fachada de um prédio da Samsung
Restrição na Samsung vem logo após rolar bug no ChatGPT que expôs histórico de conversas de usuários para outros usuários (Imagem: Reuters)

A proibição ocorre após a Samsung descobrir que alguns de seus funcionários “vazaram código-fonte interno, ao carregá-lo no ChatGPT”, segundo a Bloomberg. Há preocupações de que upload de informações confidenciais da empresa para servidores externos operados por provedores de IA corre o risco de expô-las publicamente e limita a capacidade da Samsung de excluí-las após o fato.

A notícia da política da Samsung chega pouco mais de um mês depois que o ChatGPT experimentou um bug que expôs temporariamente alguns históricos de bate-papo e, possivelmente, informações de pagamento a outros usuários do serviço.

A política da Samsung significa que ela se junta a uma série de outras empresas e instituições que colocaram limites no uso de ferramentas generativas de IA, embora motivos exatos para as restrições variem.

A JPMorgan restringiu seu uso por questões de conformidade, segundo a CNN, enquanto Bank of America, Citigroup, Deutsche Bank, Goldman Sachs e Wells Fargo também proibiram ou restringiram o uso de tais ferramentas. Escolas da cidade de Nova York baniram ChatGPT por medo de trapaça e desinformação, enquanto proteção de dados e preocupações com segurança infantil foram citadas como motivo da proibição temporária do chatbot na Itália.

Próximos passos

A Samsung teria planos para que seus funcionários usem ferramentas de IA eventualmente. Mas parece que espera desenvolver soluções internas. Segundo a Bloomberg, empresa trabalha em ferramentas para ajudar na tradução, resumo de documentos e desenvolvimento de software.

Também é importante ressaltar que quaisquer restrições para uso de IA generativa não se aplicam a dispositivos vendidos a consumidores – por exemplo, laptops e celulares.

Com informações de Bloomberg

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!