Imagem: Shutterstock/IB Photography
O Google anunciou nesta quinta-feira (26) a expansão de seu Programa de Recompensas de Vulnerabilidade (VRP), projeto que paga usuários e pesquisadores por falhas encontradas nos aplicativos da big tech, para suportar os riscos presentes no uso da inteligência artificial (IA).
Com o hype da tecnologia e as crescentes preocupações, a companhia decidiu incluir ataques específicos de IA e oportunidades maliciosas no catálogo das descobertas que se qualificam.
O que você precisa saber:
Leia mais!
Acreditamos que a expansão do VRP incentivará a pesquisa em torno da segurança e proteção da IA e trará à luz possíveis problemas que acabarão por tornar a IA mais segura para todos. Também estamos expandindo nosso trabalho de segurança de código aberto para tornar as informações sobre a segurança da cadeia de suprimentos de IA universalmente detectáveis e verificáveis.
Google em comunicado oficial.
De acordo com o Engadget, o novo escopo VRP do Google destaca, por exemplo, que descobrir que a extração de dados de treinamento IA vaza informações privadas e confidenciais é valido como falha de segurança, mas se mostrar apenas dados públicos e não confidenciais, não se qualificará para uma recompensa.
Como parte da expansão do VRP para IA, estamos repensando como os bugs devem ser categorizados e relatados. A IA generativa levanta preocupações novas e diferentes das da segurança digital tradicional, tais como o potencial de preconceitos injustos, manipulação de modelos ou interpretações erradas de dados.
Entendemos que investigadores de segurança externos podem ajudar-nos a encontrar e resolver novas vulnerabilidades que, por sua vez, tornarão os nossos produtos de IA generativos ainda mais seguros e protegidos.
A medida do Google segue sua promessa à Casa Branca. A empresa, bem como outras do setor tech, se comprometeram no início deste ano com a consciencialização das vulnerabilidades da IA.
Esta post foi modificado pela última vez em 26 de outubro de 2023 12:13