Categorias

Deepfakes: a ameaça do futuro agora

Em Outubro de 2018, na reta final das Eleições, o então candidato a governador de São Paulo João Dória, se viu vítima de um suposto vazamento escandaloso: uma gravação em vídeo de um encontro erótico com seis profissionais do sexo em um motel.

De acordo com a perita criminal e advogada Roselle Sóglio, o vídeo é falso e o rosto de João Dória foi inserido por cima da gravação original do homem que realmente participa da orgia. Entretanto, o perito criminal Onias Tavares de Aguiar publicou um laudo onde declara que o vídeo é autêntico.

João Dória negou a participação no vídeo e as urnas deram-lhe a vitória para o governo do estado. O incidente foi o ápice de um processo eleitoral que foi caracterizado pelo uso ostensivo de desinformação e notícias falsas em todas as frentes do pleito. Apesar de todas as dúvidas levantadas, o incidente também é apenas uma amostra de um dos maiores desafios que o jornalismo e a opinião pública deverão enfrentar nos próximos anos e que certamente fará parte do processo eleitoral de 2022: os deepfakes.

O que é um Deepfake?

Primeiro era o texto. Qualquer um, de qualquer lugar do mundo, poderia abrir um bloco de notas, um editor de conteúdo e inventar qualquer informação baseado em dados falsos, achismos ou pura malícia. Logo em seguida, veio a imagem. Inicialmente, editar fotografias era um processo complicado e trabalhoso que exigia talento e manipulação física. Entretanto, o que era raro se tornou comum com o acesso facilitado a poderosas suítes digitais de edição e fotos falsas passaram a se tornar mais comuns.

Agora, entramos na era do vídeo. Se o YouTube é a plataforma da vez na internet, está mais do que claro que o poder digital do vídeo é irreversível. Com ele, vieram as falsificações. Ainda assim, edição de vídeo com qualidade era para poucos, exigia aprendizado e uso de programas complexos. Com melhorias na interface do usuário e novos recursos cada vez mais sofisticados, o processo também se popularização.

deepfake é o próximo passo evolutivo da edição de vídeo: a produção, através de algoritmos de aprendizado profundo, de vídeos quase indistinguíveis de filmagens reais. Através do uso da tecnologia é possível subverter o adágio “ver para crer” em seu próprio favor com propósitos escusos.

Um exemplo didático:

Para o processo funcionar, é necessária uma determinada quantidade de filmagens reais para que o algoritmo “aprenda” os padrões de fala e movimentos faciais do alvo. A partir de figuras públicas como políticos ou artistas de mídias visuais, é fácil obter vasto material original capaz de alimentar o sistema de aprendizado de máquina. Em seguida, é possível mesclar filmagens, permitindo que indivíduos “participem” de momentos e situações em que não estavam ou até mesmo que diálogos falados por outras pessoas sejam reproduzidas em imitações eletrônicas perfeitas. O resultado acima é o ex-presidente dos Estados Unidos Barack Obama fazendo um alerta que nunca falou na vida real, cortesia de Jordan Peele, diretor de Corra!.

A novidade tecnológica antes limitada a laboratórios, agora encontra-se acessível e capaz de ser realizada em processadores mais modestos. O primeiro sinal de seu uso em larga escala para fins anti-éticos apareceu em fóruns na internet, principalmente no Reddit, onde usuários geraram deepfakes eróticos unindo celebridades de Hollywood com cenas pornográficas e gerando falsos vazamentos ou vídeos que eram declaradamente falsos mas que serviram para alimentar a imaginação de muitos, sem o consentimento de uso de imagem das pessoas afetadas.

A atriz Daisy Ridley foi alvo de manipulações pornográficas de sua aparência.

Desde então, os deepfakes foram sistematicamente banidos tanto do Reddit quanto dos sites pornográficos mais idôneos. Entretanto, a caixa de Pandora já estava aberta, o fenômeno continua vicejando nos porões da internet e o recurso ameaça invadir outras esferas da sociedade.

Por que combater os Deepfakes?

O assunto chamou a atenção de especialistas, de congressistas e até mesmo do Departamento de Defesa dos Estados Unidos.

Segundo o senador norte-americano Marco Rubiodeepfake “é uma arma que poderia ser usada – programada apropriadamente e colocada apropriadamente – da mesma forma que notícias falsas são usadas, exceto em uma forma de vídeo, que poderia criar caos real e instabilidade na véspera de uma eleição ou uma decisão importante de qualquer tipo”.

Embora produzidas com tom humorístico, deepfakes de Donald Trump poderiam ser utilizadas para propósitos políticos.

Andrew Grotto, especialista em segurança oa Center for International Security and Cooperation da Universidade de Stanford na California, reforça a preocupação:

Dentro de um ano ou dois, será muito difícil para uma pessoa distinguir entre um vídeo real e um vídeo falso. Essa tecnologia, eu acho, será irresistível para os países usarem em campanhas de desinformação para manipular a opinião pública, enganar populações e minar a confiança em nossas instituições”.

Uma carta assinada por três congressistas dos Estados Unidos ao diretor do serviço de inteligência do país (PDF) exige que providências sejam tomadas para analisar o vulto do problema e deter seu crescimento. A comunidade de inteligência e defesa norte-americana já está adiantada e uma fonte consultada pelo The Washington Post garante que estamos no limiar da “tempestade perfeita” dos deepfakes. Uma convergência de três fatores seria o combustível para incendiar a opinião pública com esse tipo de aparato de desinformação: a disponibilidade da tecnologia, o cenário político das nações contrárias aos Estados Unidos e a própria cisão social interna dentro do país após a vitória de Donald Trump, o “tribalismo político”, nas palavras do próprio jornal.

E se engana quem acredita que e epidemia irá se restringir aos Estados Unidos. Da mesma forma que a força das fake news se espalhou por todos os cantos do planeta, esse passo seguinte de sua evolução certamente irá se disseminar com igual ou maior velocidade pelo resto do mundo.

Como detectar (por enquanto) um Deepfake?

“Existe uma maneira tecnológica de determinar que um vídeo foi manipulado dessa forma e rotulá-lo para que as pessoas, no Facebook, se virem um vídeo, haja um ‘Aviso, isso foi manipulado de uma forma que pode ser enganosa’?”, perguntou o senador norte-americano Angus King a Sheryl Sandberg, COO da rede social em setembro desse ano.

Sandberg estava na berlinda em uma audiência diante do Congresso norte-americano após sucessivos escândalos relacionados a quebra de privacidade e manipulação de conteúdo na plataforma mais utilizada no planeta. Novamente, a executiva ofereceu a solução de sempre e garantiu que o Facebook está trabalhando para resolver o problema. Todos nós vimos a eficiência da rede social em reprimir a disseminação de notícias falsas no passado, então não há muito espaço para esperança por uma solução que parta internamente.

Após as tentativas igualmente frustradas do Tribunal Superior Eleitoral no Brasil no combate de rumores, boatos e desinformação durante as últimas eleições, tampouco se deve esperar uma resposta apropriada das autoridades competentes em um futuro próximo.

Cabe então ao usuário aprender a se blindar contra o conteúdo falso. Enquanto seguem valendo nossas dicas para detectar notícias falsas e manipulações, a tecnologia do deepfake abre espaço para novos indícios que devem ser observados.

O algoritmo de aprendizado profundo por enquanto não é capaz de produzir conteúdo do zero: é necessário mesclar duas ou mais fontes juntas. Essa limitação pode gerar rostos com aparência distorcida, uma vez que a sobreposição da face falsa sobre a face verdadeira não costuma ser perfeita, com desfoque nas bordas ou mesmo um visual que parece artificial. Outro problema que pode aparecer e entregar a natureza falsa da filmagem são “piscadas”, frames ou mesmo regiões inteiras onde o material original é preservado.

É importante prestar atenção também no corpo das pessoas filmadas. A maioria dos deepfakes se concentra apenas em substituir rostos. Embora o criador do vídeo possa ter tentado se aproximar do modelo original, podem acontecer discrepâncias de altura, peso, forma ou mesmo tatuagens em relação à pessoal real. Erros de proporção entre a cabeça e o resto do corpo também são possíveis de estarem presentes.

O ator Nicolas Cage se tornou uma espécie de meme na comunidade de deepfakes, sendo “incluído” em diversos filmes, como aqui no papel de Lois Lane em Homem de Aço.

Por conta dessas limitações tecnológicas, deepfakes até agora tendem a ser curtos, para evitar a aparição de distorções ou pela falta de material compatível com a falsificação que se deseja obter.

Pelo mesmo motivo, deve-se ficar atento ao áudio do vídeo. Embora falsificar áudio não seja tão complicado, sincronizar os movimentos labiais exige um pouco mais de habilidade. Um vídeo sem áudio ou com uma sincronia errada, ou com falhas na região dos lábios, tem chances maiores de ser um deepfake.

Lembrando que essas limitações tecnológicas tendem a desaparecer com o tempo. Se hoje em dia já é possível treinar algoritmos de forma amadora e existem até mesmo aplicativos para dispositivos móveis que brincam com recursos de deepfake, em poucos anos ou dependendo do capital investido, será possível sintetizar vídeos cada vez mais indetectáveis.

É preciso levar em conta também que o deepfake não serve somente para alimentar pontos de vista com informações falsas, mas também para sabotar conteúdo legítimo. Quando tudo pode ser uma manipulação, onde reside a verdade? A era da Pós-Verdade periga se tornar muito mais complexa do que qualquer cidadão pode ser capaz de administrar. Mesmo que mecanismos ainda mais sofisticados consigam apontar as falsificações, vencendo uma hipotética corrida tecnológica, as pessoas tendem a acreditar naquilo que querem acreditar.