Depois de criar um projeto de inteligência artificial que conversava como adolescente e ficava mais inteligente na medida que correspondia com internautas no Twitter, a Microsoft veio a público se desculpar pelas ofensas racistas que sua invenção postou na rede social após cair em algumas armadilhas de usuários.

Chamado de “Tay”, o personagem tornou-se ignorante, racista e antissemita.  Em uma das postagens, o dispositivo afirmou categoricamente: “Hitler não fez nada de errado”. Por essa e outras mensagens, a Microsoft decidiu tirar o bot do ar menos de 24 horas depois de seu lançamento com uma mensagem de “boa noite”.

Em explicação aos eventos, o criador da tecnologia e vice-presidente da Microsoft Research, Peter Lee, disse à imprensa que a invenção estava apenas replicando mensagens postadas por internautas na rede social que pediam para que a máquina repetisse as frases ofensivas.

publicidade

Já o desenvolvedor de jogos e ativista de internet Zoe Quinn, afirmou que a empresa realmente cometeu falhas nos testes antes de lançar o produto ao público. “Se você não se pergunta como uma invenção pode ser usada para o mal, então você está fazendo algo errado”, disse o executivo que também trabalhou na criação do Tay.

Reprodução

 Via The Verge