Os avanços com inteligência artificial são pauta de muitas pesquisas e debates e não é de hoje que o mercado tem se beneficiado das novidades oriundas desse progresso. Mas como toda evolução, alguns pontos devem ser levados em consideração e, neste caso, o uso mal-intencionado ou enviesado pode resultar em ações negativas. Pensando nisso, pode-se apontar 6 grandes riscos que a inteligência artificial traz para a humanidade.

Um primeiro ponto é a expansão e interesse em torno dos veículos autônomos. Embora ainda não seja o segmento de grande expressividade no Brasil – mas que deva se expandir no agronegócio – um pequeno delay no envio dos sinais pode causar problemas e sérios acidentes. Veículos autoguiados podem encontrar alguns “pontos cegos” em seu processamento quando ocorrem diferenças sensíveis entre os exemplos de treinamento e o que um humano faria no seu lugar.

publicidade

Com base nisso, a Microsoft e pesquisadores do Massachusetts Institute of Technology (MIT) firmaram uma parceria para criar um sistema que ajuda a identificar brechas no conhecimento de inteligência artificial usada em carros autônomos, um novo modelo de inteligência que compara ações do mundo real feitas por humanos com o que poderia ser feito na mesma situação. Ao ser refinado pelo usuário, poderia corrigir qualquer erro causado pela IA enquanto eles acontecem e até mesmo antes. Isso causaria uma mudança no comportamento da IA tornando suas ações mais próximas com as de um humano no trânsito. De acordo com o MIT e a Microsoft, os testes ainda não estão avançados o suficiente para testes maiores. Por enquanto, pesquisadores vêm usando videogames em que a simulação de um humano toma decisões que corrigem as ações de um personagem dentro do jogo.

Outro tema sensível em torno da IA diz respeito aos avanços do reconhecimento facial, principalmente na China. Considerada como o lugar do mundo com a maior abrangência dessa tecnologia, o artigo “Who needs democracy when you have data?”, do MIT, falou sobre como os dados podem influenciar na própria democracia. No país já é possível uma porta de trem não abrir para um cidadão que esteja devendo dinheiro, em uma espécie de SPC chinês.

publicidade

No Brasil, o reconhecimento facial é usado com outras finalidades, como para identificar pessoas suspeitas em aeroportos. São raras, porém, as iniciativas voltadas à segurança urbana, como a da Bahia ou a de Campinas, que há alguns anos monitora imagens de câmeras para identificar as placas de carros roubados. O governo do estado do Rio de Janeiro escolheu Copacabana para, durante o carnaval, instalar o programa de reconhecimento facial através das câmeras de trânsito e de segurança instaladas nas ruas do bairro. Com as imagens será possível identificar pessoas que estejam com pedidos de prisão expedidos ou verificar placas de carros para saber se são roubados.

O que está acontecendo na China e em outros países representa um risco considerável. Bilhões de pessoas circulando nas ruas, sendo mapeadas automaticamente, com alertas disparados em função daquela avaliação, abre precedente para uma provável imposição de regras comportamentais em função do reconhecimento facial.

publicidade

Outro ponto crítico dessa tecnologia é o uso do reconhecimento para criar um “padrão negativo” em determinados serviços. Algoritmos que reconhecem cor, orientação sexual e gênero poderão fornecer informações para crédito bancário, compra de imóveis, acessos a clubes e círculos sociais em geral. Como exemplo prático, não do senso de julgamento em si, mas da discriminação na inteligência artificial, trata-se de um algoritmo que a Microsoft desenvolveu no Twitter, a Tay, para entender como deveria se relacionar com as pessoas. Pouco tempo após o início do experimento, o perfil começou a escrever tweets de caráter duvidoso depois de sofrer ataques de trolls que interferiram no aprendizado de Tay. Utilizando palavras que ofendiam de alguma forma os usuários, o experimento foi desligado pouco tempo depois de ir ao ar.

Já em tempos de eleições acaloradas por todo o mundo, as aplicações dessa tecnologia nunca estiveram tão em alta. Com o uso de inteligência artificial em diversos canais, não é um exagero imaginar que chatbots maliciosos possam ser criados para discutir política em um determinado viés, com capacidade de argumentação, e que isso corrobore à uma visão enviesada. Em 2019, haverá duas eleições que serão muito sensíveis: as presidenciais da África do Sul e Nigéria.  Países com tensões bastante claras e que, de alguma maneira, podem despertar o interesse de empresas e marqueteiros que influenciaram nas eleições italianas, americanas e também na brasileira.

publicidade

Neste primeiro mês de 2019, o Facebook anunciou a remoção de mais de 500 contas ligadas a campanhas de manipulação russa. 471 páginas na própria rede social foram bloqueadas, assim como 41 perfis no Instagram. Todas estavam trabalhando da mesma maneira, compartilhando links de fake news e comprando publicações patrocinadas em regiões citadas como pontos de interesse para o governo de Vladimir Putin. Cerca de US$ 135 mil teriam sido pagos ao Facebook pelos anúncios que fizeram parte da rede de manipulação, que começou a funcionar em outubro de 2013, e teve sua mais recente aquisição de propaganda feita neste mês de janeiro. Todos os posts patrocinados ativos também foram retirados de circulação.

Vale lembrar que, independente de quem venceu, esse risco pode acontecer dos dois lados. Especificamente em eleições muito polarizadas, a tentativa de manipulação acaba acirrando o debate, aflorando os ânimos, e tornando as coisas mais complexas do que elas já são.

Ainda no âmbito político, outro campo para a inteligência artificial – ainda mais polêmico – se refere às iniciativas voltadas para recursos bélicos. O Pentágono tem investido em IA para criar veículos autônomos, drones e uma série de soluções que podem combater no lugar dos soldados. Existe um movimento ativista de paz muito forte para que grandes empresas americanas não se envolvam nisso. Esse movimento começou ano passado quando funcionários da Alphabet, dona do Google, souberam que a empresa estava fornecendo imagens capturadas para que os drones das forças aéreas americanas pudessem avaliar percursos e ser guiados através de algoritmos em guerras que os EUA já estivessem envolvidos.

Por fim, é preciso lembrar de um dos temas mais debatidos no ano passado: as notícias falsas. Com a questão dos deep fakes – que são a utilização de recursos de vídeos onde é possível simular uma pessoa no corpo de outra – há um olhar especial no quesito privacidade. Eventuais escândalos pornográficos ou declarações que não foram feitas por determinada pessoa: tudo que você vê pode ser falso. Existe um movimento grande de combate a esses fakes vídeos, como algoritmos que reconhecem padrões e outras anomalias que caracterizem um fake, mas é inevitável que eventuais desdobramentos aconteçam. Na Índia, ano passado, algumas pessoas foram assassinadas por supostamente estarem envolvidas em raptos de crianças – o que não aconteceu de verdade. Essas pessoas foram linchadas em suas cidades e acabaram morrendo depois de tais acusações sem argumentos reais. Evidentemente isso representa um risco de tensão social, tornando-se algo que deve ser combatido. Por mais que haja recursos tecnológicos disponíveis, existe um componente humano que acaba sendo fundamental.  As pessoas precisarão ser treinadas a desconfiarem, a buscarem sites de referência, dando juízo de valor às notícias falsas que já estão circulando, para conferir se aquilo é verídico ou não.

Assim, como todo esse panorama, é possível mapear os caminhos que esses avanços rápidos da inteligência artificial têm percorrido e quais são os riscos iminentes que a humanidade está exposta. Por mais que esses progressos tragam benefícios a todos, não se pode ignorar quaisquer que sejam os efeitos.

Em 2019, a regulamentação dessas tecnologias deve ser um tema recorrente. Mas o fato é que, com pontos positivos e negativos, o perigo existe. Caberá, mais uma vez, a nós, humanos, encontrar o caminho certo para que os benefícios justifiquem essa jornada.