Efeitos visuais fazem parte da magia do cinema desde os primórdios da sétima arte, mas foi apenas nos últimos 30 anos que efeitos gerados por computador passaram a permear os principais filmes da indústria cinematográfica internacional.

Com o que se chama no meio de CGI (“Computer-generated imagery”, ou “imagens geradas por computador”), os cineastas passaram a quebrar as barreiras da realidade para trazer à vida dinossauros, dragões, batalhas intergalácticas e reinos de fantasia.

Um dos gêneros que mais se beneficiou do avanço dessa tecnologia foi o de ficção-científica. “Blade Runner 2049”, sequência do clássico de 1982 que chegou neste ano aos cinemas, é um dos exemplos mais recentes de CGI sendo usado em situações antes inimagináveis.

Em certo momento do filme, um rosto do filme original surge na tela: a replicante Rachel, vivida em 1982 pela atriz Sean Young. A questão é que, 35 anos atrás, Sean tinha apenas 23 anos e, obviamente, em 2017, a atriz não tem mais a mesma aparência do filme original. Como colocá-la de volta no papel de um android que não envelhece? É aí que entrou o CGI.

publicidade

A equipe da MPC, empresa contratada para cuidar dos efeitos visuais de “Blade Runner 2049”, recriou o rosto de Sean Young com 23 anos de idade digitalmente. O que vemos na tela, embora se pareça muito com um rosto real, é na verdade uma imagem gerada por computador.

Essa tecnologia não é exatamente inédita. Em 2016, a ILM recriou digitalmente o rosto jovem da atriz Carrie Fisher em “Star Wars: Rogue One”, e também trouxe de volta à vida as feições do ator Peter Cushing, intérprete do general Moff Tarkin no filme original de 1977. Ou seja, tudo indica que veremos mais dessa técnica em 2018.

Como funciona

Nesta semana, Richard Clegg, supervisor de efeitos visuais de “Blade Runner 2049”, se apresentou em um painel da Comic Con Experience, em São Paulo. Ele também passou pela VFXRio, um encontro entre especialistas de efeitos visuais no Rio de Janeiro.

Clegg teve a chance de explicar à plateia da CCXP alguns dos detalhes por trás da criação de um rosto digital verossímil em “Blade Runner 2049”. Segundo ele, o processo todo se divide em três partes principais: a criação da moldura, a captura da cena e mesclagem de tudo isso.

Começando pela moldura. No set de filmagens em que a cena de Rachel seria captada, a personagem foi interpretada por uma dublê de corpo chamada Loren Peta. A atriz vestiu o mesmo figurino da personagem no filme original, o mesmo corte de cabelo e fez a cena com diversos pontos marcados no rosto.

Reprodução

Na pós-produção, o rosto de Loren seria substituído por uma cópia digital da jovem Sean Young. Para criar essa cópia, a equipe de Clegg criou um mapa tridimensional do rosto de Loren, marcando em uma modelagem 3D cada ponto do seu rosto: olhos, nariz, boca, em proporções, medidas e texturas reais.

Em seguida, observando fotos e vídeos de Sean Young em 1982, tanto nas cenas de “Blade Runner” quanto em outros ambientes, os animadores teriam o trabalho de substituir as feições de Loren naquela máscara virtual pelos mesmos pontos equivalentes no rosto de Sean.

“Como nós fazemos para recriar um rosto de mais de 30 anos atrás? Nós não podemos voltar no tempo e fazer uma sessão de fotos com Sean. Então, o que fizemos foi nos guiar por referências e pesquisas”, explicou Clegg em seu painel na CCXP.

Depois de criar uma versão virtual do rosto de Sean e aplicar este molde à “escultura” do rosto de Loren, foram necessários diversos testes de referência. Em um deles, a MPC recriou cenas do primeiro “Blade Runner” com uma dublê digital no lugar da atriz verdadeira.

As duas cenas foram colocadas lado a lado para o diretor de “Blade Runner 2049”, Dennis Villeneuve, e os produtores do longa. “Se eles não soubessem distinguir qual das duas cenas era a original e qual era a feita por computador, significava que havíamos acertado”, disse Clegg.

Uma das últimas etapas foi a captura de movimentos. Após recriar digitalmente o rosto da jovem Sean Young, foi necessário fazer esse rosto se mexer. Para isso, a atriz do filme original foi chamado aos estúdios da MPC para uma sessão de fotos e tracking de expressões faciais.

O objetivo era criar um molde 3D da Sean Young de hoje e, assim, entender como seu rosto se move em diferentes situações – sorrindo, falando, chorando etc. Cada ponto de movimento do rosto da atriz foi capturado por câmeras de altíssima definição, desde as pontas dos lábios até as sobrancelhas.

A partir daí, essa “linguagem facial” foi aplicada ao molde 3D da versão jovem de Sean. A máscara digital foi aplicada à cena original, em que as câmeras filmaram a dublê Loren, e, em seguida, foram corrigidos pontos de iluminação, movimentos do pescoço, sincronia de fala e outros aspectos.

Só depois que o diretor Dennis Villeneuve aprovasse é que o trabalho da MPC estaria pronto. A cena finalizada, que dura menos de três minutos na tela, foi resultado de nove meses de trabalho em pós-produção.

Reprodução

O “vale da estranheza”

Um desafio que Clegg comentou rapidamente durante o seu painel na CCXP foi o do “uncanny valley”, ou “vale da estranheza” em tradução literal. O termo é usado para definir a sensação de incômodo que temos quando estamos diante de uma falsa representação de um rosto humano.

Isso acontece porque, desde o nascimento, somos condicionados a reconhecer rostos humanos como uma forma de autopreservação, e também para estabelecermos uma conexão com outros membros da nossa espécie. É por isso que somos capazes de reconhecer rostos em nuvens ou tomadas, mas nos sentimos mal diante de uma feição criada digitalmente.

A sensação de “uncanny valley” surge também diante da Rachel de “Blade Runner 2049”, especialmente quando a personagem começa a falar. “Dá para perceber que tem alguma coisa estranha, você só não sabe direito o que é”, comentou um expectator do painel de Clegg na CCXP. Por mais realista que seja o rosto digital, ele ainda não é perfeito.

Este é um desafio que a tecnologia de computação gráfica ainda não superou, mas não é o único. A recriação de faces digitais para o uso em filmes também tem gerado polêmica por uma questão ética: se já usamos a tecnologia para trazer de volta à vida atores que morreram (como em “Star Wars: Rogue One”) ou para manter jovens os que envelheceram (como em “Blade Runner 2049”), quanto tempo resta até que atores reais sejam totalmente substituídos por dublês gerados por computador?

Na opinião de Dan Lemmon, isso não deve acontecer tão cedo. O norte-americano é supervisor de efeitos visuais da Weta Digital, estúdio que ficou famoso pelos efeitos da franquia “O Senhor dos Anéis”. Ele também foi indicado ao Oscar pela trilogia “Planeta dos Macacos” e ganhou uma estatueta por “Mogli: O Menino Lobo” em 2017.

Para ele, o CGI serve apenas para potencializar a imaginação dos cineastas e não deve substituir por completo a vida real capturada pelas câmeras do cinema. “O poder dos efeitos visuais é fazer do impossível, possível. Se uma coisa já é possível, não há motivo para usar efeitos visuais”, disse, em entrevista ao Olhar Digital. “Esta é a magia de verdade.”