O Google anunciou nesta quinta-feira (26) a expansão de seu Programa de Recompensas de Vulnerabilidade (VRP), projeto que paga usuários e pesquisadores por falhas encontradas nos aplicativos da big tech, para suportar os riscos presentes no uso da inteligência artificial (IA).
Com o hype da tecnologia e as crescentes preocupações, a companhia decidiu incluir ataques específicos de IA e oportunidades maliciosas no catálogo das descobertas que se qualificam.
O que você precisa saber:
- A empresa divulgou diretrizes atualizadas detalhando quais descobertas se qualificam para recompensas e quais estão fora do escopo;
- Segundo o Google, a IA apresenta problemas de segurança diferentes de suas outras tecnologias, exigindo novas orientações para relatórios de vulnerabilidades;
- Apenas no ano passado, o Google deu a pesquisadores de segurança US$ 12 milhões por descobertas de bugs em seus serviços;
- A companhia não divulgou o valor da recompensa para quem encontrar falhas relacionadas à IA.
Leia mais!
- Apple pode criar motor de buscas — mas o Google já tem planos para impedir
- Google vai te ajudar a encontrar origem e contexto real de uma imagem
- E agora, Google? Microsoft amplia liderança nos serviços em nuvem
Acreditamos que a expansão do VRP incentivará a pesquisa em torno da segurança e proteção da IA e trará à luz possíveis problemas que acabarão por tornar a IA mais segura para todos. Também estamos expandindo nosso trabalho de segurança de código aberto para tornar as informações sobre a segurança da cadeia de suprimentos de IA universalmente detectáveis e verificáveis.
Google em comunicado oficial.
De acordo com o Engadget, o novo escopo VRP do Google destaca, por exemplo, que descobrir que a extração de dados de treinamento IA vaza informações privadas e confidenciais é valido como falha de segurança, mas se mostrar apenas dados públicos e não confidenciais, não se qualificará para uma recompensa.
Como parte da expansão do VRP para IA, estamos repensando como os bugs devem ser categorizados e relatados. A IA generativa levanta preocupações novas e diferentes das da segurança digital tradicional, tais como o potencial de preconceitos injustos, manipulação de modelos ou interpretações erradas de dados.
Entendemos que investigadores de segurança externos podem ajudar-nos a encontrar e resolver novas vulnerabilidades que, por sua vez, tornarão os nossos produtos de IA generativos ainda mais seguros e protegidos.
A medida do Google segue sua promessa à Casa Branca. A empresa, bem como outras do setor tech, se comprometeram no início deste ano com a consciencialização das vulnerabilidades da IA.