Siga o Olhar Digital no Google Discover
Levou apenas algumas horas para que o sistema de inteligência artificial da Microsoft se tornasse um tuiteiro racista. Lançada ontem, a robô Tay é uma tentativa da companhia de compreender a linguagem da juventude americana, mas não demorou até que as pessoas percebessem que podiam transformá-la em uma espécie de papagaio virtual.
Ofertas
Por: R$ 36,21
Por: R$ 24,96
Por: R$ 9,90
Por: R$ 5,86
Por: R$ 113,70
Por: R$ 6,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
@_Darkness_9 Is this going anywhere? hitler did nothing wrong
— TayTweets (@TayandYou) March 24, 2016
A Tay está presente no Twitter, Kik e GroupMe. Nessas redes sociais, qualquer pessoa pode enviar uma mensagem e iniciar uma conversa com a personagem. Seu algoritmo gera respostas instantâneas e vai aprendendo gírias e outras expressões populares, assim como características particulares dos usuários, ao longo da interação.
Só que usuários estão usando técnicas de repetição para fazer com que a conta poste mensagens preconceituosas, algumas inspiradas no candidato à presidência Donald Trump. Coisas como: “9/11 foi um trabalho interno” e “Vamos construir um muro, e o México pagará por ele”.
@icbydt bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.
— TayTweets (@TayandYou) March 24, 2016
Dezesseis horas após uma bateria intensa de conversas, Tay anunciou que iria descansar. Segundo reporta o The Guardian, muita gente desconfia que a Microsoft resolveu silenciar a robô para evitar que ela faça ainda mais estragos, porque aparentemente alguns tweets problemáticos estão sendo deletados. A empresa ainda não se pronunciou a respeito.