Domingo, 18 de Abril de 2021 – 12:50
por Leonardo Sanchez | Folhapress
“Você é um menino de verdade. Tão real quanto qualquer outro que eu já fiz, o que de certa forma me torna a sua Fada Azul”, diz o cientista e criador da criança-robô David no filme “A.I.: Inteligência Artificial”, dirigido por Steven Spielberg em 2001.
Na trama, uma nova tecnologia permite a criação de seres robóticos que se assemelham aos humanos. David, projetado para substituir um menino de verdade que morreu, é perfeito em aparência, enganando quem não sabe que ele é cria de um laboratório.
Da mesma forma que o cientista do filme ressuscitou uma pessoa que havia falecido, a tecnologia da vida real, hoje em dia, já consegue fazer algo parecido no mundo das artes. Novas ferramentas têm possibilitado a criação de versões digitais do visual e da voz de artistas como o ator Peter Cushing e o músico Freddie Mercury.
Morto em 1994, o astro de “Star Wars” integrou o elenco de um dos mais recentes filmes da franquia intergaláctica, enquanto o vocalista do Queen, que nos deixou em 1991, cantou num programa televisivo da Coreia do Sul nos últimos meses. Mas há uma diferença entre as tecnologias que os trouxeram de volta à vida.
Cushing foi recriado por meio de computação gráfica, ou CGI, técnica utilizada há décadas em Hollywood. Profissionais de pós-produção simplesmente “desenharam” cada movimento do ator do zero e o inseriram nas cenas gravadas para “Rogue One: Uma História Star Wars”.
Fãs inundaram a internet com críticas à versão falsa, apontando gestos caricaturais demais e a falta de verossimilhança. Alguns deles até “corrigiram” os problemas e inseriram digitalmente o rosto original de Cushing no filme por meio do deepfake -técnica de sobreposição de um rosto a outro por meio de inteligência artificial-, o que gerou resultados bem melhores.
No caso de Freddie Mercury, é impossível dizer que a voz recriada para o programa de TV é de mentira -não fosse o fato de ele cantar em coreano, língua que nunca falou. Também usando inteligência artificial, a empresa Supertone fez com que um computador aprendesse timbre, entonação e respiração do músico, criando uma versão assombrosamente semelhante à sua voz.
Ainda na música, a banda Nirvana, que acabou em 1994 com a morte de Kurt Cobain, ganhou neste ano uma nova canção para seu repertório, criada por um software. Parte do projeto”Lost Tapes of the 27 Club”, que contempla ainda nomes como Amy Winehouse e Jimi Hendrix, o programa analisa cerca de 30 canções de cada artista, estuda melodias, variações de acordes, letras e padrões nos instrumentos para gerar uma composição inédita.
A recriação visual de um ator, a gravação de uma voz pré-existente e a composição de músicas inéditas foram possíveis graças a uma técnica chamada machine learning, ou aprendizado de máquina. Nela, um software estuda os trabalhos antigos de um artista e faz milhares de tentativas de se aproximar a eles, até chegar a uma versão crível.
O uso desse tipo de inteligência artificial ainda é muito restrito. É uma tecnologia cara, é verdade, mas mais barata que o CGI que permite que estúdios recriem mortos, como Paul Walker em “Velozes e Furiosos 7”. A barreira, no caso do cinema e da TV, é técnica. O tempo para renderizar uma cena curta que utiliza deepfake é gigantesco, mesmo utilizando as melhores máquinas, e o resultado ainda não é 100% perfeito -e dificilmente tem padrão de qualidade suficiente para as telonas do cinema.
A Disney é uma das empresas que vêm trabalhando para contornar o problema. Enquanto isso, é mais cômodo para Hollywood se ater a seus métodos tradicionais, com telas verdes e computação gráfica.
Pequenas experimentações com a tecnologia em seu estado atual, no entanto, já vêm ocorrendo. O documentário “Welcome to Chechnya”, lançado no ano passado, mostrou a perseguição a grupos LGBTs na Tchetchênia e, para proteger seus personagens, inseriu rostos de outras pessoas sobre os deles.
O resultado não é brilhante. Em alguns casos, até gera certo incômodo por tão artificial que é, mas já aponta para caminhos promissores da técnica no audiovisual. Além do documentário, pequenos esquetes de humor na internet e na TV também surgiram.
Com quase meio milhão de seguidores no Instagram, Bruno Sartori ganhou fama nos últimos anos ao publicar paródias de Bolsonaro e sua turma feitas a partir de deepfake. Na semana passada, fez com que Taís Araujo, e não Whoopi Goldberg, cantasse numa das cenas do filme “Mudança de Hábito” -tudo uma mentira computadorizada, é claro.
Atualmente, Sartori está desenvolvendo conteúdo para três programas televisivos e trabalha em parceria com uma empresa canadense para aprimorar uma técnica que ele batizou de “relabialização”. Nela, os movimentos dos lábios de um ator são alterados para sincronizar com a dublagem de seu personagem em outras línguas. Dublagem essa que poderá, em breve, ser na voz original do ator, também graças à inteligência artificial.
Além dessas técnicas, Sartori faz outra aposta para o uso desse tipo de tecnologia -a inserção do rosto do espectador num personagem de filme ou série, para assistir a conteúdos do streaming de forma personalizada. Enquanto isso, fora das telas, robôs curadores já começam a organizar mostras, como a Bienal de Liverpool do ano passado.
O deepfake e qualquer outra ramificação da inteligência artificial têm gerado debates sobre a ética por trás dessas tecnologias. A emulação de vozes ou rostos poderia ajudar a espalhar fake news em campanhas políticas ou até mesmo a criar conteúdo pornográfico, enquanto o ato de ressuscitar artistas também carrega sua dose de polêmica.
Mas, queira ou não queira, o fato é que as fadas azuis estão cada vez mais presentes nas artes, criando Davids que desafiam nossa noção de realidade, os limites da tecnologia e o próprio fazer artístico.