Imagem: SewCreamStudio/Shutterstock
Empresas de tecnologia como Google, Meta, OpenAI, Microsoft e Amazon concordaram em revisar seus dados de treinamento de IA para material de abuso sexual infantil (CSAM) e removê-los de uso em quaisquer modelos futuros. As informações são do The Verge.
Leia mais:
Como já havíamos noticiado, um relatório anual do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) revelou que os casos de abuso infantil envolvendo IA aumentaram em 2023.
O acordo firmado com as companhias leva a um novo conjunto de princípios que limitam a proliferação de CSAM. A promessa é garantir que os conjuntos de dados de treinamento não contenham CSAM, evitar conjuntos de dados com alto risco de incluir CSAM e remover imagens de CSAM ou links para CSAM das fontes de dados.
As empresas também se comprometem a fazer “testes de resistência” aos modelos de IA para garantir que não geram quaisquer imagens CSAM; e modelos de IA só serão lançados se estes tiverem sido avaliados quanto à segurança infantil. Outros signatários incluem Anthropic, Civitai, Metaphysic, Mistral AI e Stability AI.
A Thorn, uma organização anti abuso infantil sem fins lucrativos, que ajudou a criar os princípios de All Tech Is Human, afirma que a geração de imagens de IA pode impedir os esforços para identificar vítimas, criar mais demanda por CSAM, permitir novas maneiras de vitimizar crianças e ainda facilitar a busca por informações sobre como compartilhar material problemático.
O Google afirma que além de se comprometer com os princípios, também aumentou as bolsas de publicidade para o NCMEC promover suas iniciativas.
A vice-presidente de soluções de confiança e segurança do Google, Susan Jasper, alega que apoiar essas campanhas aumenta a conscientização pública e dá às pessoas ferramentas para identificar e denunciar abusos.
Esta post foi modificado pela última vez em 24 de abril de 2024 21:24