Não é de hoje que computadores são melhores do que humanos no xadrez. Desde que o Deep Blue da IBM derrotou o campeão mundial de xadrez Garry Kasparov em 1996, os avanços na inteligência artificial só vêm crescendo. Nos últimos 15 anos, nenhum humano venceu um computador em um torneio.

Mas o segredo da melhor inteligência artificial não é ser melhor do que humanos, mas conseguir pensar como eles. Esse é o conceito, por exemplo, do Teste de Turing – nele, um interlocutor faria perguntas ao sistema e a uma pessoa e, se  no final do  teste, ele não  conseguir distinguir quem é o humano, então conclui-se que o computador pode pensar.

publicidade

Abrindo mão da maestria técnica para imitar o pensamento de uma pessoa, pesquisadores da Universidade de Cornell, Universidade de Toronto e Microsoft Research desenvolveram um sistema de xadrez que não busca necessariamente vencer os humanos – é treinado para jogar como um humano. O Maia utiliza o sistema de código aberto Leela, baseado no AlphaZero da DeepMind.

O modelo foi trainado com movimentos individuais de milhões de jogos de humanos realizados online. Essa abordagem permitiu aos pesquisadores ajustar o Maia para diferentes níveis de habilidade – nove bots foram criados para jogar com pessoas com classificações entre 1100 e 1900 (jogadores mais novatos e amadores mais fortes).

O mecanismo de xadrez Maia sacrifica a maestria para imitar o jogo humano. Imagem: Dilok Klaisataporn/Shutterstock

Em dezembro passado, o Maia foi para campo: disputou partidas no site de xadrez lichess.org. Mais de 40 mil jogos foram realizados na primeira semana, e o Maia conseguiu combinar  movimentos humanos em mais da metade do tempo para cada nível de habilidade. A precisão do sistema foi aumentando conforme o nível de habilidade aumentava.

Ajudando no aprendizado

Usando sua inteligência artificial, o modelo foi capaz de aprender que tipos de erros os jogadores cometem com mais frequência em diferentes níveis de habilidade – e reconhecer o nível de habilidade em que as pessoas param de cometer esses erros. Um dos objetivos do estudo é esclarecer como os computadores tomam decisões de maneira diferente das pessoas, e como isso pode ajudar os humanos a aprender melhor.

“As inteligências artificiais de xadrez atuais não têm nenhuma concepção de quais erros as pessoas normalmente cometem em um determinado nível de habilidade”, explica o coautor da pesquisa, Ashton Anderson, professor da Universidade de Toronto. “Os computadores vão te indicar todas as situações em que você falhou em jogar com a precisão de uma máquina, mas eles não conseguem separar no que você deve trabalhar”.

De acordo com Anderson, o “Maia caracterizou algoritmicamente quais erros são típicos de quais níveis e, portanto, em quais erros as pessoas devem trabalhar e quais erros provavelmente não devem, porque ainda são muito difíceis para elas”.

Via: Engadget