A Uber vem registrando, desde 2019, uma série de patentes que descrevem sistemas de vigilância por pontuação com algoritmos para verificar se um motorista a ser inscrito na plataforma é “perigoso” ou não.

As patentes possuem processos variados. Uma delas, registrada em setembro de 2019, estabelece uma pontuação de risco de segurança com base na avaliação do passageiro e a partir de informações compiladas via aprendizado de máquina. Em um dos exemplos citados na patente, menciona-se a possibilidade de um “sotaque acentuado” no motorista tornar-se um ponto de corte para a percepção de um serviço de baixa qualidade.

publicidade

Outra patente, datada de julho de 2020, descreve um sistema de manutenção preditiva para incidentes de segurança com base em modelos de aprendizado de computador que determinam a probabilidade de um motorista, por exemplo, praticar direção perigosa.

Os algoritmos de vigilância seriam construídos, segundo o texto da Uber, conforme o “comportamento interpessoal de um provedor, a capacidade dele interagir de forma cooperativa com estranhos, confiabilidade [determinada por testes psicométricos] e histórico de violações criminais”.

Especialistas criticam uso de algoritmo

Se, à primeira vista, a iniciativa da Uber parece estimável pela preocupação com a segurança dos passageiros — especialmente por denúncias de estupro nos últimos anos —, especialistas demonstram receio com a ascensão de tais sistemas. Especialmente pela ambiguidade na classificação legal do motorista vinculado à Uber e a crescente pauperização dos “gig-workers” — autônomos sem vínculo empregatício e segurança jurídica nos Estados Unidos — durante a pandemia da Covid-19.

Para Jeremy Gillula, engenheiro de privacidade do Google e ex-diretor de projetos de tecnologia da Electronic Foundation, o uso de algoritmos para prever o comportamento de um motorista pode ser preocupante.

“Alguns brilhantes engenheiros perceberam que podemos fazer os computadores aprenderem com base no texto das pessoas, sem definir o que realmente queremos e o que isso de fato representa para um aplicativo na vida real”, explicou o engenheiro, em entrevista ao site americano The Intercept. “O problema é um motorista perder o seu sustento, e não que alguém veja o anúncio errado.”

Já o diretor de ética em tecnologia do Centro Markkula de Ética Aplicada da Universidade de Santa Clara, Brian Green, questiona as justificativas da Uber para a coleta de dados.

“Se o objetivo do sistema de vigilância é promover a confiança, eles têm que permitir que o público tenha acesso aos dados”, disse o cientista, que liga a vigilância da Uber à tendência de como a tecnologia de algoritmos vem sendo utilizada para cicatrizar problemas sociais mais profundos. “Lidamos com muitas pessoas que não conhecemos, o que faz a tecnologia e o monitoramento intervirem para construir uma relação de confiança artificial.”

A Uber considera a inteligência artificial como essencial para seu modelo de negócios e vem investindo forte no campo nos últimos anos. Sua plataforma de IA Michelangelo, atualmente, é utilizada para construir algoritmos de otimização para rotas de viagem, informações sobre motoristas e recursos de segurança. Sobre as patentes, a empresa americana afirma que “os pedidos de patentes são feitos para diversas ideias, mas nem todas se tornam produtos ou recursos.”

Via The Intercept

Imagem: Oleksandr Lutsenko/Shutterstock

Leia mais:

Já assistiu aos nossos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!