A Meta anunciou nesta quarta-feira (8) sua nova política que exigirá que os anunciantes divulguem quando suas campanhas políticas, eleitorais ou anúncios forem alterados por inteligência artificial (IA).

A nova política entrará em vigor nos Estados Unidos a partir do início de 2024, visando combater a desinformação nas eleições presidenciais.

publicidade

Com essa medida, os anunciantes políticos do Facebook e Instagram terão que divulgar quando um anúncio contém uma imagem, vídeo ou áudio que foi criado digitalmente por IA, como informou o The Wall Street Journal.

Leia mais:

publicidade

A nova política da Meta, segue a decisão da empresa anunciada no início da semana de não disponibilizar seu conjunto experimental de ferramentas de inteligência artificial (IA) generativa para profissionais de marketing político.

A Meta deu alguns exemplos de quando os anunciantes políticos precisarão divulgar que suas campanhas foram criadas utilizando IA, como: anúncios que retratam uma pessoa real dizendo ou fazendo algo que ela não disse ou fez e criações digitais de um evento ou indivíduo com visual realista retratando algo que não aconteceu.

publicidade

No Ano Novo, os anunciantes que veiculam anúncios sobre questões sociais, eleições e política com o Meta terão que divulgar se a imagem ou o som foram criados ou alterados digitalmente, inclusive com IA, para mostrar pessoas reais fazendo ou dizendo coisas que não fizeram ou disseram.

Nick Clegg, presidente de assuntos globais da Meta em post no Threads.

Quando um conteúdo violar a política, a Meta rejeitará o anúncio. Anunciantes que divulgarem anúncios inadequados repetidamente poderão ser penalizados pela plataforma.

Como explica a Meta, não são todos os anúncios que se encaixam nessa política. Campanhas cujo conteúdo teve edições simples como corte, correção de cores ou redimensionamento de imagem, não afetam a mensagem, portanto esse tipo de alteração não precisa ser divulgado com a empresa.