A inteligência artificial já tem sido adotada pelas autoridades de segurança para o monitoramento da população. Mas a tecnologia não é à prova de falhas. O caso da auxiliar administrativa sergipana Thaís Santos, de 31 anos, comprova isso. Ela foi confundida pela IA (duas vezes) com uma foragida da Justiça e chegou a ser abordada pela Polícia Militar.

Leia mais

publicidade

Entenda o caso

  • Acompanhada de duas amigas, Thaís participava do Pré-Caju, tradicional micareta de Aracaju.
  • O evento contava com câmeras de reconhecimento facial e a IA utilizada no sistema acabou apontando a mulher, de forma equivocada, como uma foragida da Justiça.
  • O erro aconteceu duas vezes e a mulher chegou a ser abordada por policiais.
  • As informações são do UOL.

IA confundiu mulher duas vezes no mesmo evento

Thaís Santos conta que, meia hora após chegar à micareta, três agentes da PM à paisana a abordaram. Eles perguntaram o nome e pediram o documento dela.

Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida.

Thaís Santos, auxiliar administrativa

Após confirmarem a identidade dela, Thaís foi liberada. Ela acabou vendo a foto da real criminosa: “Ela não se parecia comigo”, afirmou.

publicidade

Duas horas depois, no entanto, enquanto curtia o trio da cantora Ivete Sangalo, quatro policiais militares abordaram a auxiliar administrativa novamente. Dessa vez, ela conta que de forma violenta e com brutalidade. Thaís chegou a ser algemada.

Eu já estava chorando e nervosa, informando que eu não tinha feito nada. Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças. Fui conduzida para o camburão da polícia como uma marginal, como todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando. Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida.

Thaís Santos, auxiliar administrativa

Mais uma vez, a polícia confirmou que Thaís não era a pessoa procurada e ela foi liberada.

publicidade
Thaís Santos foi abordada pela PM após erro de IA (Imagem: Arquivo Pessoal)

A tecnologia é racista?

Após o episódio, Thaís Santos considera que o erro da IA tenha um viés de racismo. “Fui discriminada publicamente por ser pobre e preta”, diz ela.

A Secretaria de Segurança Pública (SSP) de Sergipe admitiu o equívoco e afirmou que “houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto”.

publicidade

A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa.

Secretaria de Segurança Pública de Sergipe

A Corregedoria da Polícia Militar instaurou procedimento para averiguar a ocorrência. A PM informou que “irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial”.

No Pré-Caju, de acordo com a SSP, 27 câmeras atuavam com reconhecimento facial. Elas auxiliaram, diz a PM, na prisão de três pessoas foragidas por homicídio e estelionato.

A IA utilizada em câmeras de monitoramento compara traços dos rostos filmados àqueles presentes em bancos de dados. Para especialistas de segurança, no entanto, a tecnologia apresenta graves inconsistências contra a população negra e pessoas trans.

Eles explicam que a inteligência artificial é treinada com base em dados do mundo real e, por isso, reproduzem preconceitos e a discriminação social que existe em nossa sociedade.