Susan Sontag entendeu que as fotografias são narradores não confiáveis. “Apesar da presunção de veracidade que dá a todas as fotografias autoridade, interesse, sedução”, ela escreveu, “o trabalho que os fotógrafos fazem não é uma excepção genérica ao comércio geralmente obscuro entre arte e verdade.” Mas e se mesmo essa presunção de veracidade desaparecesse? Hoje, os eventos capturados em gravações de vídeo e áudio com aparência realista ou sonora nunca precisam ter acontecido. Em vez disso, eles podem ser gerados automaticamente, por computadores poderosos e software de aprendizado de máquina. O termo genérico para essas produções computacionais é “deepfakes“.

O termo apareceu pela primeira vez no Reddit, um painel de mensagens, como o nome de usuário de uma conta que produzia vídeos falsos de celebridades femininas fazendo sexo. Uma comunidade inteira surgiu em torno da criação desses vídeos, escrevendo ferramentas de software que permitem que qualquer pessoa cole automaticamente o rosto de uma pessoa no corpo de outra. O Reddit fechou a comunidade, mas a tecnologia estava lá fora. Logo estava a ser aplicado a figuras e actores políticos. Num clipe misterioso, o rosto de Jim Carrey se mistura com o de Jack Nicholson em uma cena de “The Shining”.

As ferramentas para editar média manualmente existem há décadas – pense no Photoshop. O poder e o perigo dos deepfakes é que eles tornam a falsificação mais barata do que nunca. Antes do deepfakes, era necessário um computador poderoso e um bom pedaço de diploma universitário para produzir um vídeo falso e realista de alguém. Agora, basta algumas fotos e uma conexão à Internet.

A produção de um deepfake sobre, digamos, Barack Obama, começa com muitas fotos do ex-presidente (isso, aliás, significa que as celebridades são mais fáceis de se deepfake do que as pessoas normais, pois a internet possui mais dados que as descrevem). Essas fotos são inseridas num software conhecido como rede neural, que faz conexões estatísticas entre a aparência visual de Obama e qualquer aspecto dele que você queira fingir. Se quiser seguir o caminho do ventríloquo e pedir que Obama diga coisas que o próprio homem nunca disse, então deve direccionar seu software para aprender as associações entre palavras específicas e o formato da boca de Obama, conforme ele as diz. Para fixar o rosto no corpo em movimento de outra pessoa, deve direccionar o software para aprender as associações entre rosto e corpo.

Para tornar as imagens mais realistas, pode fazer com que o software concorra com uma cópia de si mesma, uma versão gerando imagens e a outra tentando detectar falsificações. Essa técnica, conhecida como redes adversárias generativas (GAN), é a forma mais pura de deepfake, evocando imagens inteiramente únicas, não apenas usando o aprendizado de máquina para mesclar fotos existentes. O software de geração de imagens continuará a melhorar até encontrar uma forma de vencer a rede que está a detectar falsificações, produzindo imagens que são estatisticamente precisas e alucinações computacionais puras – mesmo que ainda sejam desonestas para o olho humano. O computador pode gerar imagens que são representações estatisticamente precisas de um cão, por exemplo, embora ainda não entenda completamente as nuances visuais do pêlo. Actualmente, isso confere às imagens GAN uma vantagem assustadora, mas é provável que evapore no futuro, à medida que a técnica melhorar.

As consequências da falsificação barata e generalizada provavelmente serão profundas, embora demorem a se desdobrar. Muita preocupação com o possível impacto que imagens falsas e críveis de políticos podem ter sobre a sociedade civil – de uma perda adicional de confiança na média ao potencial de distorções eleitorais. Essas tecnologias também podem ser implantadas contra alvos mais brandos: podem ser usadas, por exemplo, para intimidar colegas de classe, criando imagens deles em situações embaraçosas. E não é difícil imaginar profissionais de marketing e anunciantes a usar as ferramentas deepfake para ajustar automaticamente as imagens em anúncios e materiais promocionais, optimizando-as para obter o máximo envolvimento – as faces dos modelos se transformaram em ideais de beleza personalizados para cada espectador, levando os consumidores a criar compras aspiracionais. Num mundo que já estava saturado de imagens extremas, os deepfakes tornam plausível levar isso ainda mais longe, deixando a “presunção de veracidade” de Sontag verdadeiramente morta na água.

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite o seu nome aqui

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.