Siga o Olhar Digital no Google Discover
O Facebook alega que seu sistema de inteligência artificial (IA) não estava preparado para um evento como o massacre ocorrido em duas mesquitas na Nova Zelândia na última sexta-feira (15/3), quando 50 pessoas foram mortas por um supremacista branco. A rede social tem sido criticada pelo fracasso de sua tecnologia na identificação automática das imagens.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Em uma postagem no blog, na última quarta-feira (20), Guy Rosen, vice-presidente de gerenciamento de produtos, afirmou que a IA só reconhece um conteúdo depois de “treinada”. Por exemplo, milhares de imagens de nudez ou propaganda terrorista são necessárias para ensinar o sistema a identificá-las.
“Vamos precisar fornecer aos nossos sistemas grandes volumes de dados desse tipo específico de conteúdo, algo que é difícil, uma vez que esses eventos são, felizmente, raros”, disse Rosen. Além disso, ele observou que é um desafio para o sistema reconhecer imagens “visualmente similares”, mas que poderiam ser inofensivas.
“A inteligência artificial é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas e, embora sua eficácia continue melhorando, nunca será perfeita”, completou.
Desde o tiroteio em Christchurch, Facebook, Google e Twitter tiveram que responder a questionamentos sobre como controlar a disseminação da transmissão ao vivo do atirador.
Na segunda-feira (18/3), o Facebook disse que menos de 200 espectadores viram a transmissão ao vivo e que o vídeo atingiu cerca de 4.000 visualizações antes de ser retirado. O primeiro usuário a denunciá-lo o fez 12 minutos após o término da exibição. Nas primeiras 24 horas após o evento, a rede social removeu 1,5 milhão de uploads do vídeo, dos quais 80% foram bloqueados antes de entrarem na plataforma.
O post de quinta-feira também descreveu etapas que o Facebook planeja adotar. para que episódios do gênero não ocorram mais Elas incluem melhorar sua tecnologia de correspondência, descobrir como obter relatórios de usuários mais rapidamente e trabalhar ainda mais com o Fórum Global da Internet para combater o terrorismo.