A gente sabe: a internet é um poço de ódio e trollagem (nem sempre no “bom” sentido). Quem não sabe disso é, aparentemente, a Microsoft, que iniciou um inocente projeto de uma inteligência artificial que conversava como adolescente, e ficava mais inteligente conforme recebia mensagens, aprendendo a responder de acordo.

O projeto falhou miseravelmente. Em vez de ficar mais inteligente, a personagem Tay começou a cuspir ignorância, racismo, antissemitismo e apologia ao nazismo. Ela aprendeu mais do que deveria com a internet.

publicidade

Como resultado, a Microsoft paralisou o projeto para evitar que esta situação acontecesse. O perfil no Twitter continua ativo, mas a inteligência artificial parou de tuitar e responder às mensagens dos outros, indicando que ela está em manutenção. O recurso ainda não foi cancelado.

A ideia da Microsoft com a Tay era entender um pouco mais como falam os adolescentes, e criar uma ferramenta para conversar com eles em “adolescentês”. No entanto, a empresa claramente não previu o que isso significava, e precisou fazer correções de última hora, além de apagar vários tuítes publicados no perfil.