Usuários que assistiram um vídeo com homens negros, postado no dia 27 de junho pelo Daily Mail do Reino Unido no Facebook, receberam uma mensagem automática da plataforma perguntando se eles queriam “continuar assistindo vídeos de primatas”, segundo o New York Times. Depois da reportagem, o Facebook desabilitou toda a função de recomendações feitas pela IA, e está investigando se há um problema de racismo em sua inteligência artificial.

“Foi um erro claramente inaceitável”, um porta-voz do FB disse ao NYT. “Como já dissemos, enquanto fizemos melhorias em nossa IA, sabemos que ela não é perfeita e que há mais progressos a serem feitos. Nos desculpamos com qualquer pessoa que possa ter visto essas recomendações ofensivas.”

publicidade

Esse está longe de ser o primeiro incidente de IA ou algoritmos de redes sociais mostrando ter vieses racistas. Em agosto, o Twitter admitiu que sua ferramenta de corte automático de imagens favorecia pessoas brancas e mulheres, depois que usuários notaram que pessoas negras geralmente eram cortadas das imagens postadas na rede social. 

Em julho, o TikTok foi acusado de preconceito racial ao rotular frases do tipo “Vidas Negras Importam” como “conteúdo impróprio”, e culpou seu algoritmo pelo incidente. 

O próprio Facebook está sendo investigado nos EUA por suposto viés racista no processo de contratação, o que pode se tornar um processo contra a empresa de Mark Zuckerberg.

Leia mais:


A Comissão de Comércio Federal (FTC) dos EUA alertou em abril que ferramentas de IA que demonstram racismo e preconceito de gênero podem ser consideradas violações das leis de proteção ao consumidor. “Se responsabilize pelos seus erros, ou a FTC fará isso por vocês”, escreveu a advogada especialista em privacidade do FTC Elisa Jillson no site da agência.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!