Siga o Olhar Digital no Google Discover
A gente sabe: a internet é um poço de ódio e trollagem (nem sempre no “bom” sentido). Quem não sabe disso é, aparentemente, a Microsoft, que iniciou um inocente projeto de uma inteligência artificial que conversava como adolescente, e ficava mais inteligente conforme recebia mensagens, aprendendo a responder de acordo.
Ofertas
Por: R$ 2.288,93
Por: R$ 8,28
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 491,92
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 179,90
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 505,00
O projeto falhou miseravelmente. Em vez de ficar mais inteligente, a personagem Tay começou a cuspir ignorância, racismo, antissemitismo e apologia ao nazismo. Ela aprendeu mais do que deveria com a internet.
Como resultado, a Microsoft paralisou o projeto para evitar que esta situação acontecesse. O perfil no Twitter continua ativo, mas a inteligência artificial parou de tuitar e responder às mensagens dos outros, indicando que ela está em manutenção. O recurso ainda não foi cancelado.
A ideia da Microsoft com a Tay era entender um pouco mais como falam os adolescentes, e criar uma ferramenta para conversar com eles em “adolescentês”. No entanto, a empresa claramente não previu o que isso significava, e precisou fazer correções de última hora, além de apagar vários tuítes publicados no perfil.