O programa de bolsas de pesquisa da Latin American Research Awards (Lara), que já está em sua 8ª edição, anunciou os projetos selecionados. Foram escolhidas 22 pesquisas que propõem soluções tecnológicas para problemas do cotidiano. O Brasil foi o grande destaque, com 13 representantes.  

Além dos projetos brasileiros, a iniciativa, que é realizada pelo Centro de Engenharia do Google na América Latina, escolheu quatro pesquisas argentinas, duas chilenas, uma do Peru, uma da Colômbia e uma do México.  

publicidade

Por aqui, a Universidade Estadual de Campinas (Unicamp) e a Universidade Federal de Minas Gerais (UFMG) possuem três projetos escolhidos cada. Além dessas instituições, uma pesquisa da Universidade de São Paulo e das Universidades Federais de Uberlândia, do Rio de Janeiro, Fluminense e do Rio Grande do Sul também foram selecionadas.  

Agora, os projetos de mestrado e doutorado que foram escolhidos pela iniciativa receberão bolsas de pesquisa pelo período de um ano. Os valores para doutorandos e seus orientadores são de, respectivamente, US$ 1,2 mil (R$ 6,3 mil) e US$ 750 (R$ 3,9 mil). Para quem faz mestrado, o valor é um pouco menor, chegando a US$ 750 (R$ 3,9 mil) para o mestrando e US$ 675 (R$ 3,5 mil) para os orientadores.  

publicidade

No caso da Unicamp, os três projetos selecionados têm em comum que são do Instituto de Computação (IC) e que compartilham soluções que integram a área com situações normais do cotidiano.  

Conheça os projetos 

  • Drones para melhorar a internet 

O primeiro deles é de autoria do doutorando Rodrigo Augusto Cardoso da Silva e propõe o uso de drones para melhorar a latência do envio e recebimento de dados. Simplificando seu uso, a tecnologia consegue melhorar a conexão com a internet.  

publicidade

Isso é possível a partir do uso dos drones já citados. Batizado de “Redução de Latência de serviço pelo emprego de veículos aéreos não tripulados de asas fixas”, é possível fazer com que centros de dados se aproximem das pessoas.  

O interessante a se destacar do projeto é que ele se baseia em um conceito chamado computação em névoa. Ao contrário da computação em nuvem, a ideia aqui é que as informações sejam distribuídas por centros menores – não por grandes instalações que, geralmente, encontram-se fora do país.  

publicidade

“Com o conceito de computação em névoa, nosso objetivo é trazer esses recursos mais próximos do usuário, dentro das cidades ou até mesmo dentro dos bairros, dependendo do tipo de aplicação. Com isso, conseguimos ter um acesso mais rápido e um processamento desses dados em frações de segundo, algo muito rápido. Isso é importante porque é previsto que no futuro, com uma capacidade de processamento maior dos dispositivos móveis, haja mais e mais aplicações desse tipo, que exigem uma resposta rápida”, detalha Rodrigo.  

Como exemplo, o pesquisador cita o próprio campus da Unicamp que, por conta dos diversos centros de pesquisa diferentes, pode requerer acessos em diferentes períodos. “Por exemplo, no campus da Unicamp, há o Ciclo Básico, o Hospital de Clínicas e a Reitoria. Vamos supor que cada local tenha um pico no tráfego de dados em momentos diferentes do dia. Pode ser que eu consiga atender a esses três locais com um apenas um drone, ao invés de uma infraestrutura terrestre em cada um deles”, comenta.  

  • Aprendizagem de máquina e saúde 

Atualmente, para auxiliar profissionais de saúde a diagnosticar câncer de pele, há bancos de imagens com informações sobre pintas e manchas e como elas podem ser casos confirmados ou não. No entanto, essa avaliação ainda depende de tempo dos profissionais para inserir as imagens e os dados para que o sistema, a partir de inteligência artificial, possa procurar esses padrões.  

Sistema tem como objetivo facilitar a identificação de possível câncer de pele. Foto: simarik/iStock

Para resolver essa questão, o doutorando Alceu Bissoto criou o projeto “Repensando a classificação automática do câncer de pele com aprendizado não supervisionado de representação”. A proposta é ampliar a autonomia dos sistemas para que eles dependam menos das imagens existentes, já que, a maioria delas, não representa necessariamente a diversidade de tipos de pele presentes no Brasil.  

No entanto, de acordo com Sandra Avila, professora do IC e orientadora de Bissoto, o objetivo não é o de substituir o especialista no diagnóstico, mas ter “uma inteligência aumentada, dando suporte ao especialista. Até porque o que sai do sistema é uma informação numérica, mas não uma instrução do que fazer com aquele número. Então realmente é preciso da interpretação de um especialista”. 

  • Apuração de informação  

O terceiro projeto tem a difícil tarefa de ajudar na identificação de publicações falsas. A iniciativa, batizada de “Combate a notícias falsas por meio da atribuição de autoria e análise de filogenia”, tem o objetivo de ajudar a determinar se uma publicação do Twitter é verdadeira.  

Ícone do aplicativo Twitter exibido na tela de um smartphone
Sistema poderá definir padrões de escrita com base em publicações antigas do Twitter. Foto: Brett Jordan/Unsplash

De autoria de Anderson Rocha, professor do IC, e do doutorando Antonio Theóphilo, a iniciativa consegue verificar as características estilísticas de mensagens compartilhadas na rede social de textos curtos e atribuir sua autoria à pessoa que o postou com base nas postagens anteriores do usuário.  

Isso quer dizer que, por meio dessa análise, é possível determinar se uma publicação foi de fato escrita por alguém ou somente reproduzida de algum outro lugar. O que o sistema faz é basicamente analisar o padrão de escrita de uma mensagem e determinar se quem compartilha é o próprio autor.  

“Quando há diferentes mensagens de uma mesma pessoa, como identificar o estilo de escrita dela? Geralmente é a linguagem que a pessoa usa, as palavras e expressões mais comuns, se ela usa abreviações, se usa emojis. Quando essa análise é feita de forma automática para identificar o que é padrão, isso é feito com a inteligência artificial”, explica Anderson.  

Em um exemplo prático, Antonio cita a postagem de uma autoridade ou um jornalista. “Imagine que você vê um post no Twitter, supostamente vindo de uma autoridade ou um jornalista. Seria interessante se houvesse uma plataforma que utilizasse essas técnicas e informasse, com base nos textos antigos dessa pessoa, se esse texto é ou não da pessoa e questão. Se o consumidor da notícia vai acreditar ou não, é outra história”. 

fonte: Unicamp