Siga o Olhar Digital no Google Discover
A gente sabe: a internet é um poço de ódio e trollagem (nem sempre no “bom” sentido). Quem não sabe disso é, aparentemente, a Microsoft, que iniciou um inocente projeto de uma inteligência artificial que conversava como adolescente, e ficava mais inteligente conforme recebia mensagens, aprendendo a responder de acordo.
Ofertas
Por: R$ 4.519,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
O projeto falhou miseravelmente. Em vez de ficar mais inteligente, a personagem Tay começou a cuspir ignorância, racismo, antissemitismo e apologia ao nazismo. Ela aprendeu mais do que deveria com a internet.
Como resultado, a Microsoft paralisou o projeto para evitar que esta situação acontecesse. O perfil no Twitter continua ativo, mas a inteligência artificial parou de tuitar e responder às mensagens dos outros, indicando que ela está em manutenção. O recurso ainda não foi cancelado.
A ideia da Microsoft com a Tay era entender um pouco mais como falam os adolescentes, e criar uma ferramenta para conversar com eles em “adolescentês”. No entanto, a empresa claramente não previu o que isso significava, e precisou fazer correções de última hora, além de apagar vários tuítes publicados no perfil.