O documentário “In Event of Moon Disaster”, originalmente produzido em 2020, voltou às manchetes em 2021 após vencer o Emmy na categoria técnica de “Melhor Destaque para Mídia Interativa: Documentário”. A produção, dirigida por Francesca Panetta e Halsey Burgund, com roteiro da jornalista egípcia Pakinam Amer, faz uso de um deepfake para trazer de volta à tona a discussão do uso ético da inteligência artificial (IA).

O documentário gira em torno de um vídeo de julho de 1969, onde o então presidente dos Estados Unidos, Richard Nixon, entrega um discurso onde ele lamenta a morte dos astronautas Neil Armstrong, Edwin “Buzz” Aldrin e Michael Collins, da missão Apollo 11, no que seria a primeira visita do homem à Lua. Você pode ver o recorte abaixo:

publicidade

Leia também

A redação do Olhar Digital, acredite, ouviu o seu “ué, mas não foi assim que aconteceu”. E você não está errado: a missão Apollo 11 foi um sucesso histórico, com a bandeira dos EUA fixada na superfície da Lua, bem como a foto das pegadas deixadas pelos astronautas, seu retorno à Terra, a frase “um pequeno passo para o homem, um passo gigante para a humanidade” – tudo isso aconteceu de fato.

publicidade

In The Event of Moon Disaster” parte de uma premissa real para criar uma situação que diverge do rumo histórico. Basicamente, o discurso lido por “Nixon” (que morreu em 1994) é objeto do deepfake que mencionamos no começo do texto. Mas é importante contextualizar: o discurso é real, e foi criado para fins de contingência – Nixon pediu que seus redatores presidenciais o elaborassem para o caso da missão dar errado e os três astronautas morrerem (ou ficarem sem possibilidade de retorno ou resgate, como o vídeo acima deixa subentendido). Felizmente, isso não ocorreu.

O filme em questão usa desinformação e truques de contextualização para enganar você dentro do senso narrativo proposto. Separando em elementos, temos:

publicidade
  • Real: os vídeos de lançamento do foguete, as capturas de vídeo dos astronautas, os áudios de rádio entre a Nasa e os astronautas, as palavras do discurso
  • Fake: a boca de Richard Nixon (manipulada por softwares de machine learning) e a sua voz (um ator gravou o discurso com o mesmo ritmo de dicção, mas a voz foi sintetizada por IA)
Imagem do documentário "In Event of Moon Disaster", que busca chamar atenção para o uso ético da IA por meio de um deepfake e um curso histórico alternativo
No documentário “In Evento of Moon Disaster“, pesquisadores do MIT exploram um rumo alternativo, onde os astronautas da Apollo 11 morreram no espaço. O presidente Richard Nixon, no vídeo, é um deepfake – versão criada digitalmente (Imagem: MIT/Reprodução)

A ideia do documentário é justamente a de levantar a discussão do uso ético da IA frente a um cenário onde a tecnologia parece avançar sem muitas restrições. A própria roteirista, Pakinam Amer, admitiu isso em entrevista ao Cairo Times, jornal do Egito: “o projeto está na encruzilhada de muitas disciplinas – jornalismo, ciências humanas, arte, história, ciências sociais e pesquisa. Ele usa machine learning [um braço da IA onde um computador ‘aprende’ padrões e ajusta seus parâmetros para se adequar a eles] e outras tecnologias emergentes para reimaginar um evento histórico e contar uma história aprofundada sobre possíveis verdades e a constantemente alterada natureza da realidade”, ela comentou. “[O filme] tem um deepfake em seu centro, mas isso foi feito para alertar para o potencial obscuro dos deepfakes.

Isso porque, apesar de sua prerrogativa inovadora, os deepfakes evoluíram a ponto de um estudo de 2019, veiculado pelo Deeptrace Labs, concluir não só que 96% deles constituem material de “falsa pornografia” (vídeos de sexo explícito envolvendo celebridades que nunca praticaram as filmagens, falsos nudes com grau elevado de realismo), como também mostrou que, hoje, não é preciso ser um ás da programação para criar sua própria peça. O estudo afirma que qualquer pessoa pode criar um deepfake em questão de minutos.

publicidade

Mas como isso se relaciona com a veiculação de eventos históricos ou, pior, o revisionismo de episódios memoráveis por parte de conspiracionistas? Para Arthur Igreja, especialista em tecnologia e professor convidado de inovação e negócios da Fundação Getúlio Vargas (FGV), isso já vem acontecendo, e o cenário é preocupante:

“[Quando pensamos em ‘deepfake’] nós imaginamos um vídeo perfeito, mas também temos que lembrar que manipulações de vídeos acontecem todo dia”, comenta Arthur. “Com a evolução dos deepfakes, que estão ficando absurdamente críveis, não ficaria surpreso se eventos históricos fossem manipulados ou alterados. Isso pode impactar na transmissão da informação e teorias da conspiração, sem dúvidas, pois se está construindo uma narrativa. E a vítima é quem terá que desconstruir aquilo que já foi postado. Então, isso é muito grave”.

Imagem mostra o aplicativo FaceApp em página da Play Store
O FaceApp é um aplicativo que permite inserir o seu próprio rosto em filmes e vídeos curtos, com resultados “macarrônicos”, mas ele levantou a possibilidade de que melhores recursos tecnológicos trouxessem versões mais realistas – e mais perigosas (Imagem: Wachiwit/Shutterstock)

Recentemente, o ex-chefe da divisão de pesquisas em IA do Google (a antiga “Google X”) disse que deixou a companhia de Mountain View após se assustar com uma característica supostamente imprevista de um projeto. Em entrevista recente, Mo Gawdat disse que a empresa estava “tentando criar Deus”. Desde a sua saída, em 2017, o agora empreendedor digital tem adotado um tom crítico às pesquisas de inteligência artificial de um modo geral.

Arthur Igreja não chega a esse extremismo, mas reconhece que há muito o que se trabalhar para assegurar que o uso ético da IA seja perene por todos aqueles que buscam trabalhar com o tema: “não acredito que seja nesse patamar de ‘tentar criar Deus’, mas esse é um ponto importante. Até o momento, tem muito pouca regulamentação em cima de IA. É uma tecnologia que não é tão compreendida. Tivemos, há pouco tempo, as audições no Congresso a respeito de redes sociais, que é algo muito mais tangível; e aquilo foi risível: as pessoas não sabiam fazer perguntas e não entendiam como o Facebook ganha dinheiro.

Ele continua: “Então, temos um problema com legisladores que não entendem [do assunto]. Sendo assim, ficamos dependentes da ética de cada empresa, confiando no bom senso delas. Historicamente, sabemos que não funciona assim, com questões ambientais e de condições de trabalho. Regulamentação é sim necessária quando o assunto é inteligência artificial, ainda mais com o grau de importância que isso ganhou”.

Para o especialista, o que nos falta é “fazer com que a exceção não prejudique a regra”. Ele argumenta que todos esses malefícios – pornografia falsa envolvendo pessoas que nunca praticaram o ato, mau uso dos deepfakes para fins políticos – são situações que acabam se sobrepondo (no que tange à divulgação midiática) aos benefícios que essa tecnologia nos traz: 

“O cenário ideal para mudar essa percepção é focar nas aplicações boas. É preciso separar as coisas para criar uma base de diálogo e uma impressão mais positiva”, diz Igreja. “Tem coisas extraordinárias sendo feitas com isso: possibilidades no entretenimento, na arte, no ensino. Para que os aspectos positivos se sobressaiam, temos que dar mais visibilidade a esses casos positivos, expondo que deep fakes podem ser usadas para algo bom. São bases tecnológicas ferramentais e a questão é ‘como’ elas são usadas. Não dá para demonizar a tecnologia porque alguém fez o uso incorreto – ou nada ético – da IA”.

Alguns exemplos disso: em 2018, o Museu e Centro Educacional de Illinois para o Holocausto, em Chicago, criou versões interativas de sobreviventes da Segunda Guerra Mundial e dos horrores do nazismo, para serem “entrevistados” pelos visitantes. Muito mais do que meras gravações pré-ensaiadas, o uso da inteligência artificial fez com que os estudantes conduzissem conversas reais com a máquina, que usava algoritmos de treino para antever possíveis respostas em tons educacionais, ensinando ao público sobre a história.

No entretenimento isso também já vem sendo usado: no filme Rogue One: Uma História Star Wars, o vilão Wilhuff Tarkin (“Grand Moff Tarkin”, para os mais aficcionados), vivido pelo ator Peter Cushing, era um deepfake – evidente, já que Cushing morreu em 1994 e Rogue One foi lançado em 2016. Outro exemplo disso – também no universo Star Wars – vem na série O Mandaloriano, onde um deepfake fez Luke Skywalker, em sua versão jovem, aparecer em um episódio da segunda temporada: Mark Hamill, o ator por trás do lendário personagem, tem 70 anos – não exatamente o que você chamaria de “jovem Jedi”.

O problema dos deepfakes é a falta de conhecimento abrangente do assunto para um público mais massificado: “Muita gente nem sabe o que é deep fake”, diz Arthur Igreja. “Mas dentro do escopo das pessoas interessadas em tecnologia, sim, vivemos em uma era de preocupação, especialmente relacionadas à IA. Em grande parte pois não há um ‘freio’ ou porque as pessoas entendem muito pouco sobre o assunto. Tudo o que é pouco compreendido traz, como primeira reação instintiva, o medo. Os deepfakes são um assunto muito pouco explorado e que ainda está ligado aos experts de tecnologia”.

Em outras palavras: a regulamentação forte pode criar o “freio” citado pelo especialista, enquanto a divulgação de projetos de amplo benefício eventualmente fará com que a população não iniciada na tecnologia compreenda com bons olhos o uso ético da IA.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!