Imagem: Shutterstock/SomYuZu
No último ano, a inovação da inteligência artificial (IA) se espalhou pelo local de trabalho. Em todos os setores e em todas as funções da equipe, estamos vendo funcionários usando assistentes de IA para simplificar várias tarefas, como registrar atas, escrever e-mails, desenvolver códigos, elaborar estratégias de marketing e até mesmo ajudar a gerenciar as finanças da empresa. Já estou imaginando um assistente de IA que ajudará com a estratégia de conformidade, monitorando ativamente as alterações regulamentares e identificando áreas de melhoria.
No entanto, em meio a todo esse entusiasmo, há um desafio muito real: como proteger os dados corporativos e a propriedade intelectual contra vazamentos por meio dessas plataformas de IA geradoras e para provedores terceirizados.
Embora muitas empresas tenham pensado em bloquear completamente essas ferramentas em seus sistemas, fazer isso poderia limitar a inovação, criar uma cultura de desconfiança em relação aos funcionários ou até mesmo levar à “IA sombra” – o uso não aprovado de aplicativos de IA de terceiros fora da rede corporativa.
Até certo ponto, o cavalo já fugiu. Os dados mostram que, nas empresas, os assistentes de IA já estão integrados às tarefas cotidianas. O assistente de redação Grammarly, o segundo aplicativo de IA generativa mais popular, é usado atualmente por 3,1% dos funcionários, e percebo que cerca de um terço das teleconferências de que participo agora têm um assistente de IA na lista de convidados.
Em vez de bloquear totalmente as ferramentas, os diretores de segurança (CISOs) podem implementar políticas de proteção contínua usando ferramentas inteligentes de DLP (Data Loss Prevention, prevenção contra perda de dados) para usar aplicativos de IA com segurança. As ferramentas de DLP podem garantir que nenhuma informação confidencial seja usada em consultas de entrada para aplicativos de IA protegendo dados essenciais e evitando acesso não autorizado, vazamentos ou uso indevido.
Leia mais:
Os CISOs também devem ter um papel ativo na avaliação dos aplicativos usados pelos funcionários, restringindo o acesso àqueles que não se alinham às necessidades da empresa ou que representam um risco indevido. Quando um assistente de IA é considerado relevante para sua organização, a próxima etapa envolve a verificação do fornecedor e a avaliação de suas políticas de dados. Durante esse processo, é importante fazer o seguinte questionamento:
Como as empresas privadas aguardam uma orientação legislativa mais forte sobre IA, é importante que os executivos responsáveis por segurança e compliance promovam a autorregulação e as práticas éticas de IA em suas organizações. Com a proliferação de assistentes de IA, é fundamental que eles ajam agora para avaliar as implicações destas ferramentas no local de trabalho.
Em breve, todos os funcionários realizarão muitas tarefas diárias em conjunto com seus assistentes de IA e isso deve motivar as empresas a criarem comitês internos de governança não apenas para avaliar as ferramentas e seus aplicativos, mas também para discutir a ética da IA analisar os processos e discutir a estratégia antes de uma adoção e regulamentação mais ampla.
É exatamente assim que estamos abordando o desafio dentro das equipes de segurança aqui na Netskope; com um comitê de governança de IA responsável por nossa estratégia de IA e que criou os mecanismos para inspecionar adequadamente os fornecedores emergentes e suas abordagens de processamento de dados.
Esta post foi modificado pela última vez em 26 de abril de 2024 15:08