Um trio de pesquisadores do Instituto Politécnico Rennselaer (NY, EUA), a mais antiga universidade de tecnologia em língua inglesa do mundo, publicou recentemente um artigo propondo a criação de uma inteligência artificial ética, que poderia ser usada para impedir tiroteios em massa.

O sistema seria capaz de reconhecer a intenção do usuário, determinar se o uso de uma arma é ético e, caso contrário, impedir seu acionamento. Parece algo distante, e os próprios pesquisadores admitem que é um projeto “Blue Sky”, ou seja, uma simples exploração de um conceito sem preocupação com sua aplicação.

publicidade

Ainda assim, eles afirmam: “Previsivelmente, alguns irão se opor com o seguinte argumento: o conceito que vocês introduzem é atraente. Mas infelizmente não é mais que um sonho. Na verdade, nada mais que um sonho maluco. Esta IA seria realmente possível do ponto de vista da ciência e engenharia? Com confiança, respondemos que sim”.

O artigo não detalha a criação desta IA, ou de uma arma com ela, mas sim a eficácia de um sistema que possa tomar as mesmas decisões sobre o uso de uma arma que um carro autônomo toma quando o motorista é reprovado no bafômetro.

publicidade

Vale lembrar que a analogia não é tão simples. O nível de álcool no sangue pode ser detectado com um processo químico que é quantificado numericamente. A intenção de uma pessoa é algo muito mais subjetivo, ainda mais quando é necessário considerá-la em relação à intenção de todas as outras pessoas no ambiente ao seu redor.

Um exemplo de uso desta “IA ética” é descrito da seguinte forma:

publicidade

Um atirador está dirigindo para um supermercado, com um rifle de assalto e uma grande quantidade de munição em seu veículo. A IA que imaginamos sabe que essa arma está lá e que pode ser usada apenas para propósitos muito específicos, em ambientes muito específicos (e, é claro, que sabe quais são esses propósitos e ambientes).

Já no estacionamento do supermercado, qualquer tentativa do suposto atirador de usar sua arma, ou mesmo posicioná-la para uso de qualquer forma, resultará em seu travamento pela IA. No caso em questão, a IA sabe que matar qualquer um com a arma, exceto por motivo de autodefesa, é antiético. Como ela também sabe que esta exceção não se aplica ao caso, a arma é bloqueada e se torna inútil.

Embora não sejam citadas diretamente, a descrição soa como uma inteligência artificial capaz de seguir as três leis da robótica, brilhantemente descritas pelo escrito Isaac Asimov em seu livro “Eu, robô” de 1950:

  1. Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano seja ferido.
  2. Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos que entrem em conflito com a Primeira Lei.
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Estudos mostram que reconhecimento facial é até 10 vezes mais propenso a falsos positivos em fotos de pessoas negras do que brancas
Estudos mostram que reconhecimento facial é até 10 vezes mais propenso a falsos positivos em fotos de pessoas negras do que brancas. Precisão também varia de acordo com o sexo da pessoa sendo identificada. Imagem: Shutterstock

Os pesquisadores se anteciparam a algumas críticas, como o fato que criminosos usariam armas que não tem a IA guardiã instalada. Em resposta, eles afirmam que “nosso conceito não está de forma alguma restrito à ideia de que a IA está presente apenas nas armas em questão”.

publicidade

Por exemplo, o sistema poderia ser usado em câmeras de vigilância e sensores que, ao detectar uma pessoa com uma arma, poderiam avisar a polícia e fechar todas as vias de acesso a um local.

Mas os pesquisadores ignoram um argumento mais importante: limitar o acesso de civis a armas de grosso calibre (especialmente aquelas que são usadas por forças militares) é muito mais fácil do que criar um novo e revolucionário sistema de IA capaz de compreender as nuances da personalidade humana.

Além disso, assumem que sua IA seria infalível. É sabido que muitos sistemas de vigilância atualmente em uso, como os de reconhecimento facial (novamente, algo que pode ser numericamente quantificado) falham na maioria dos casos.

Quando o reconhecimento facial falha, um inocente pode ir para a cadeia. Mas se a IA guardiã falhar, um inocente pode morrer em uma reação da polícia (no caso de um falso positivo) ou em um ataque não detectado (no caso de falso negativo).

Ainda assim, o artigo pode ser um interessante exercício de pensamento. O texto é curto (apenas cinco páginas, sendo uma de referências), e pode ser lido em inglês no site Arxiv.org.

Fonte: The Next Web