Em 2020, o Twitter foi acusado de promover racismo e sexismo em sua ferramenta de corte automático de imagem, o que levou a rede social a convocar pesquisadores independentes que pudessem comprovar as afirmações. Hoje (10), o Twitter admitiu os viéses negativos, prometendo mudanças e premiando perfis que levaram a empresa à descoberta.

As acusações eram simples de se entender: basicamente, quando você posta uma imagem no Twitter em modo retrato, o algoritmo da rede social fará o corte (“crop”) dela em modo paisagem. Você só vê a imagem completa caso toque/clique nela para expandi-la na tela.

publicidade

Leia também

Imagem dividida ao meio mostra duas crianças - uma branca à esquerda e uma negra à direita. Ela simboliza descoberta recente feita pelo Twitter, que admiriu racismo e sexismo em algoritmo de corte automático de imagens na rede social
O Twitter reconheceu acusações de que seu algoritmo de corte automático de fotos trazia vieses racistas, machistas, xenófobos e capacitistas, prometendo alterá-los. Imagem: lassedesignen/Shutterstock

O problema: algumas pessoas notaram que mulheres e pessoas negras geralmente levavam a maior parte do corte, que acabava priorizando pessoas brancas ou homens. Em um caso específico, um emoji de pele morena foi preterido em relação ao mesmo desenho, mas com pele branca.

Desde então, o Twitter vinha respondendo com atualizações cosméticas – cortes menores no app da rede para o iOS, por exemplo -, ao mesmo tempo em que conduziu investigações internas. Diante de não terem encontrado nada, mas as acusações em si persistindo, a empresa de Jack Dorsey levou o caso à sua própria comunidade, anunciando uma caça a bugs que levassem seu algoritmo a interpretar mulheres e negros de forma negativa.

Agora, em um tuíte e um vídeo compilado pela equipe de engenharia do Twitter – os problemas foram completamente admitidos pela rede social:

“Antes de revelarmos os vencedores, nós queremos agradecer a todos os que participaram. Construir algoritmos responsáveis depende de muita gente, e nós somos agradecidos pela comunidade nos ajudar a descobrir os danos e explorações não intencionais que existiam em nosso sistema”

Depois disso, a empresa reconheceu os vencedores – de primeira à quarta posições -, listando cada trabalho feito. Eles seguem, em ordem crescente:

  • @hiddenmarkov: revelou como filtros de beleza podem enganar o algoritmo, atribuindo juízo do que é mais ou menos apresentável e reforçando vieses sociais do que é ou não bonito
  • @halt_ai: mostrou que o algoritmo que analisa saliências de imagens ampliava a marginalização. Por exemplo: idosos com pele enrugada eram cortados de fotos por causa dele
  • @RoyaPak: usou o mesmo algoritmo anterior para mostrar como o Twitter tinha “preferência” por idiomas e raças. O experimento usou memes iguais, porém em idiomas diferentes, revelando que a rede social ampliava o alcance de fonemas latinos, mas também reduzia a projeção de fonemas arábicos
  • @OxNaN: mostrou como o algoritmo do Twitter dá preferência à exibição de emojis com tons de pele mais claros em detrimento aos mais escuros

Ou seja, além de racismo e sexismo, o algoritmo do Twitter também apresentava interpretações capacitistas e xenófobas.

Todos os estudos vencedores foram posicionados no GitHub para consultas gratuitas, e devidamente divulgados pelas contas oficiais do Twitter.

Agora, o Twitter tem o desafio de corrigir esses problemas, mas ainda não informou como pretende fazer isso.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!