O Google anunciou nesta quinta-feira (26) a expansão de seu Programa de Recompensas de Vulnerabilidade (VRP), projeto que paga usuários e pesquisadores por falhas encontradas nos aplicativos da big tech, para suportar os riscos presentes no uso da inteligência artificial (IA).

Com o hype da tecnologia e as crescentes preocupações, a companhia decidiu incluir ataques específicos de IA e oportunidades maliciosas no catálogo das descobertas que se qualificam. 

publicidade

O que você precisa saber: 

  • A empresa divulgou diretrizes atualizadas detalhando quais descobertas se qualificam para recompensas e quais estão fora do escopo; 
  • Segundo o Google, a IA apresenta problemas de segurança diferentes de suas outras tecnologias, exigindo novas orientações para relatórios de vulnerabilidades; 
  • Apenas no ano passado, o Google deu a pesquisadores de segurança US$ 12 milhões por descobertas de bugs em seus serviços; 
  • A companhia não divulgou o valor da recompensa para quem encontrar falhas relacionadas à IA. 

Leia mais! 

publicidade

Acreditamos que a expansão do VRP incentivará a pesquisa em torno da segurança e proteção da IA e trará à luz possíveis problemas que acabarão por tornar a IA mais segura para todos. Também estamos expandindo nosso trabalho de segurança de código aberto para tornar as informações sobre a segurança da cadeia de suprimentos de IA universalmente detectáveis e verificáveis. 

Google em comunicado oficial. 

De acordo com o Engadget, o novo escopo VRP do Google destaca, por exemplo, que descobrir que a extração de dados de treinamento IA vaza informações privadas e confidenciais é valido como falha de segurança, mas se mostrar apenas dados públicos e não confidenciais, não se qualificará para uma recompensa. 

Como parte da expansão do VRP para IA, estamos repensando como os bugs devem ser categorizados e relatados. A IA generativa levanta preocupações novas e diferentes das da segurança digital tradicional, tais como o potencial de preconceitos injustos, manipulação de modelos ou interpretações erradas de dados. 

Entendemos que investigadores de segurança externos podem ajudar-nos a encontrar e resolver novas vulnerabilidades que, por sua vez, tornarão os nossos produtos de IA generativos ainda mais seguros e protegidos.   

A medida do Google segue sua promessa à Casa Branca. A empresa, bem como outras do setor tech, se comprometeram no início deste ano com a consciencialização das vulnerabilidades da IA.