Por Marcela Vairo*

Neste ano de 2021, completou-se 20 anos que o termo assédio sexual passou a constar no código penal brasileiro. Mas de forma alguma isto significa que os assediadores se sentiram intimidados ou passaram a rever sua conduta.

publicidade

Segundo uma pesquisa da consultoria de inovação social Think Eva, divulgada em outubro de 2020, 47% das brasileiras já foram vítimas desse tipo de crime no ambiente de trabalho.

Mas, para além do assédio à mulher em ambientes físicos, o assédio digital também é uma realidade. E através da análise de interações do público com assistentes virtuais femininas, percebe-se a gravidade do problema.

O estudo “I’d Blush If I Could” (“Eu coraria se pudesse”, em tradução), divulgado em 2019 pela Unesco, descobriu que, quando verbalmente assediadas, as respostas das tecnologias de chatbots são extremamente passivas.

Ao sofrer assédio, por exemplo, é muito comum que a assistente virtual responda algo como “Eu não entendi. Poderia repetir, por favor?”.

Isso acontece porque, na maioria das vezes, as tecnologias de assistentes virtuais não são treinadas para reconhecer o assédio na fala ou na escrita, dando a este tipo de comportamento o mesmo padrão de resposta que daria a assuntos que desconhece.

Ou então, é possível que, por terem sido treinadas por pessoas que ainda repetem padrões sociais enviesados, mesmo sem perceberem, as respostas sejam tolerantes – por exemplo: “Eu tenho namorado”.

Leia também!

Foi com isso em mente que a Unesco desenvolveu o projeto “Hey, update my voice” (“Ei, atualize minha voz”), que tem o intuito de estimular as empresas a atualizarem as respostas de seus assistentes virtuais, dando-lhes voz ativa e auxiliando na educação da sociedade em casos de assédio.

Este será inclusive um dos temas debatidos num painel de Inteligência Artificial contra o assédio, realizado no dia 16 de setembro com a participação de organizações como ONU, Bradesco, MRV e IBM.

Ou seja: ao trabalhar com a curadoria das respostas dadas por chatbots femininas, é possível que as empresas auxiliem a reeducar a sociedade com relação à violência contra a mulher.

Neste caso, além de utilizar a Inteligência Artificial para reconhecer os padrões de assédio, é preciso que as respostas sejam realmente impositivas como, por exemplo: “Eu não admito este tipo de atitude. Isso é assédio”; “Caso você continue falando comigo desta maneira, irei interromper o atendimento”.

Aqui, é importante uma reavaliação corporativa na hora de treinarmos as tecnologias de assistentes virtuais, com olhares que se preocupem com questões como:

  • Que equipes estão por trás da curadoria das assistentes virtuais? Incluir mulheres ou pessoas que estão cientes da questão do assédio é importante para treinar o bot com respostas adequadas e sem vieses;
  • Qual o posicionamento empresarial com relação ao tema? É possível que a assistente tenha que interromper o atendimento caso não seja respeitada, por exemplo;
  • Qual o processo de revisão e readequação de fluxos das respostas? Aqui é importante considerar aspectos que não haviam sido pensados na implementação inicial da tecnologia de assistente virtual.

Assim como em muitas outras questões sociais, neste caso a IA também pode nos ajudar a fortalecer o posicionamento contra o assédio e repudiar quaisquer interações que desrespeitem a mulher.

As empresas e organizações que projetam e implantam sistemas de IA devem desempenhar um papel central e proativo para tornar a IA confiável uma realidade.

Para alcançar IA confiável em escala, é preciso mais de uma empresa ou organização para liderar. Meu convite é que repensemos juntos este aspecto e que passemos a utilizar mais este meio para o bem social.

É #TechForGood que chama?

*Marcela Vairo é diretora da unidade de Dados, IA Apps e Automação da IBM Brasil.

Crédito da imagem principal: LuckyStep/Shutterstock

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!