O Instagram anunciou nesta terça-feira, 26, novas ferramentas que visam diminuir o ciberbullying na plataforma. A partir de agora, os usuários serão capazes de filtrar automaticamente comentários ofensivos, além de terem acesso a ferramentas relacionadas a saúde mental.

Mesmo que a pessoa tenha uma conta pública, será possível escolher quem pode comentar em posts. Esse filtro pode ser feito a partir de todos ou apenas determinados grupos de pessoas, como as que você segue ou seus seguidores. Você também pode bloquear qualquer um de fazer comentários. Se possuir uma conta privada, pode selecionar contas que queira bloquear para que não possam comentar seus posts.

Reprodução

Em junho, a rede social lançou um filtro automático para bloquear determinados comentários ofensivos em inglês. Agora, o filtro foi expandido para os idiomas árabe, francês, alemão e português. Esse filtro utiliza inteligência computacional para identificar e esconder comentários ofensivos.

publicidade

Também será possível denunciar tendências suicidas ou de problemas mentais em transmissões de vídeos ao vivo. Se você perceber, durante uma transmissão ao vivo, que alguém está passando por um momento difícil ou que precisa de ajuda, pode reportar de maneira anônima. A pessoa visualizará uma mensagem que oferece opções para conversar com uma linha de auxílio, contatar um amigo ou obter outras dicas de ajuda. Essa ferramenta pode ser encontrada ao clicar nos três pontos da barra de comentários, na parte inferior da tela.