Deepfake

Inteligência Artificial não pode proteger contra deepfakes, diz relatório

Rafael Rigues, editado por Liliane Nakagawa 18/09/2019 12h09
Compartilhe com seus seguidores
A A A

Confiar apenas em inteligência artificial para resolver o problema pode tornar as coisas piores, concentrando mais dados, e consequentemente mais poder, nas mãos e corporações privadas

Um novo relatório publicado pelo projeto Data and Society levanta dúvidas sobre a capacidade de detecção automatizada de vídeos alterados por técnicas de aprendizado de máquina, os deepfakes.


Segundo Britt Paris e Joan Donovan, autoras do relatório, os deepfakes, embora novos, são parte de uma longa história de manipulação da mídia, que exige uma solução tanto social quanto técnica. Confiar apenas em inteligência artificial para resolver o problema pode tornar as coisas piores, concentrando mais dados, e consequentemente mais poder, nas mãos e corporações privadas.

"O pânico em torno dos deepfakes justifica soluções técnicas rápidas que não tratam da desigualdade estrutural. É um projeto massivo, mas temos que encontrar soluções que sejam tanto sociais quanto políticas, para que as pessoas sem poder não sejam deixadas de fora da equação", diz Paris. 

Atualmente, deepfakes levam a velha manipulação de imagens muito além, permitindo às pessoas manipular vídeos usando técnicas de aprendizado de máquina, com resultados que são quase impossíveis de detectar ao olho nu.

David Greene, diretor de Liberdades Civis na Electronic Frontier Foundation, diz que os deepfakes também podem ter usos importantes no comentário político, paródia e anonimização de pessoas que precisam proteger sua identidade.

“Se houver uma lei sobre os deepfakes, ela precisa levar em conta a liberdade de expressão”, notando que se as pessoas usarem a tecnologia para algo ilegal, como chantagem, extorsão ou roubo de identidade, elas podem ser processadas usando a legislação já existente.

Mas Paris se preocupa que filtros de conteúdo baseados em Inteligência Artificial e outras soluções técnicas possam causar dano real. "Elas tornam as coisas melhores para alguns, mas podem torná-las piores para os outros. Projetar novos modelos técnicos abre espaço para que as empresas capturem todo o tipo de imagens e criem um repositório da vida on-line”, afirma ela.

Fonte: The Verge

Mídia privacidade fake news imprensa video Deepfake
Compartilhe com seus seguidores
Você faz compras Online? Não deixe de conferir a nova extensão do Olhar Digital que garante o preço mais baixo e ainda oferece testadores automáticos de cupons. Clique aqui para instalar.

Recomendados pra você