0 Compartilhamentos 168 Views

Como a Microsoft entrou na guerra contra os Deep Fakes

6 de outubro de 2020

A maior potência econômica mundial está prestes a passar por um novo processo eleitoral para escolher seu líder máximo. Quatro anos se passaram desde que as redes sociais se tornaram o ponto de origem para uma pesada campanha de desinformação que tentou ativamente influenciar os resultados. A expectativa dos especialistas é que o novo pleito repita a guerra informacional de 2016 e serão necessários mecanismos para buscar suavizar o seu impacto.

De acordo com um levantamento científico realizado pelo Professor Jacob Shapiro da Universidad de Princeton (PDF) e abalizado pela Microsoft, nada menos que 96 campanhas de influenciadores estrangeiros foram orquestradas contra o processo eleitoral de 30 países, entre 2013 e 2019, utilizando mídias digitais. Entre as nações afetadas, estaria o Brasil, além de França, Canadá, Estados Unidos e outros. Ainda segundo esse estudo, 74% dessas campanhas maliciosas distorciam fatos que podiam ser objetivamente comprovados, para difamar indivíduos, inflamar a polarização do tecido social ou persuadir a opinião pública.

O quadro se agravou com o advento da pandemia do novo coronavírus, com notícias falsas e politização de fatos que levaram a impactos que ainda precisam ser mensurados e cujos resultados podem inclusive levar a prejuízos pesados à infraestrutura social e a saúde pública.

Diante desse quadro, a Microsoft anunciou sua estratégia no combate aos deep fakes, à falsificação de notícias e ao processo de reeducação informacional necessário para o desenvolvimento de senso crítico.

Microsoft Video Authenticator

Em sua abordagem, a Microsoft tenta combater tecnologia com tecnologia, embora reconheça que não exista uma ferramenta única que possa solucionar todos os problemas. Além da ameaça dos Deep Fakes de vídeo, a empresa aponta também a questão das imagens e dos áudios adulterados por Inteligência Artificial, englobando todos esses riscos sob o rótulo de mídia sintética, um novo tipo de conteúdo complicado de ser identificado a olho nu.

Por causa de suas características geradas por algoritmo, a proposta da Microsoft é reverter os mesmos princípios, fogo contra fogo. Entra nessa batalha o Microsoft Video Authenticator, um recurso de aprendizado de máquina capaz de aferir o grau de confiabilidade de uma mídia a partir de sinais de manipulação. De acordo com o anúncio oficial, o sistema funciona “detectando o limite de mesclagem dos elementos deepfake e sutil desvanecimento ou tons de cinza que podem não ser detectados pelo olho humano”, entre outros fatores.

A tecnologia é resultado da colaboração entre diversos departamentos de pesquisa da Microsoft, a partir do banco de dados público do Face Forensic++. O algoritmo foi testado usando o DeepFake Detection Challenge Dataset, gerando então um poderoso recurso baseado em modelos de ponta gerados pela comunidade científica para a detecção de mídias sintéticas.

“Esperamos que os métodos de geração de mídia sintética continuem a crescer em sofisticação. Como todos os métodos de detecção de IA têm taxas de falha, temos que entender e estar prontos para responder aos deepfakes que escapam aos métodos de detecção”, se comprometeu a Microsoft.

Por enquanto o Microsoft Video Authenticator não está disponível para os usuários domésticos, mas foi integrado ao arsenal da iniciativa Reality Defender 2020 (RD2020). A proposta do projeto nesse momento é fornecer recursos para organizações interessadas em manter a transparência do processo democrático, como entidades jornalísticas e campanhas políticas, sem fins lucrativos ou ligação partidária.

Na prática, a utilização do Microsoft Video Authenticator é bem simples para quem tem acesso ao recurso: basta fazer o upload da mídia a ser analisada e aguardar o resultado. No caso de vídeo, a ferramenta é capaz até mesmo de oferecer dados frame a frame, para reconhecer o momento na filmagem em que ocorreu a manipulação.

Conteúdo real

Ainda segundo a Microsoft, “existem poucas ferramentas hoje para ajudar a garantir aos leitores que a mídia que estão vendo online veio de uma fonte confiável e que não foi alterada”. Portanto, para esse desafio em específico, a empresa está desenvolvendo uma espécie de selo de autenticação para notícias.

A tecnologia é baseada em dois fatores. O primeiro deles é um recurso embutido no Microsoft Azure que habilita aos produtores de conteúdo certificar seu material usando hashes que acompanharão aquele conteúdo através da web na forma de metadados. Para interpretar e reconhecer esse selo, entra a segunda parte da tecnologia: um leitor, que pode ser inclusive um plugin para navegadores, que identifica o certificado e assinala a autenticidade da notícia. É uma forma de assinar o conteúdo distribuído pela internet e fornecer com garantia seu atestado de procedência.

Essa iniciativa reúne a expertise dos times da Microsoft Research com Microsoft Azure e foi projetada para ser uma parte integrante do Defending Democracy Program, impulsionando o chamado Project Origin.

Project Origin é uma coalizão de forças entre os produtores de conteúdo BBC, CBC/Radio-Canada e The New York Times com a Microsoft.  Laura Ellis, diretora de tecnologia da BBC explica o perigo que o projeto busca oferecer: “tradicionalmente, nossas rotas de transmissão ou publicação têm sido seguras, um transmissor ou um servidor web, mas uma vez que o material vai além de nossos próprios canais e é compartilhado nas redes sociais, ele fica vulnerável à manipulação, embora ainda mantenha a aparência de ser um conteúdo de boa-fé”.

A ideia é possuir um sistema capaz de “marcar” conteúdo e que siga sendo eficiente após sucessivas camadas de replicação, compressão, redimensionamento etc, a ponto de salvaguardar a autenticidade original. Considerando que as próprias redes sociais aplicam modificações não-maliciosas ao conteúdo publicado, ajustando de acordo com suas especificidades, como reconhecer uma alteração mal-intencionada? Os primeiros passos estão sendo dados agora e a tecnologia está em fase de testes.

De acordo com Ellis, o objetivo final é ter uma tecnologia “simples de usar, transparente e com padrões abertos que podem ser amplamente adotados para o bem público”.

Você consegue identificar uma mentira?

Infelizmente, de nada adiantam as melhores intenções, as melhores ferramentas e as fontes mais confiáveis se o receptor da mensagem não tem a vontade ou a percepção para separar verdades de mentiras. É necessário educar o consumidor para a análise crítica das informações e identificação de fatos.

A Microsoft também está ciente desse componente da equação e estabeleceu uma parceria com a University of Washington (UW), a Sensity e o jornal USA Today para buscar soluções que incentivem uma chamada “alfabetização midiática”.

“O conhecimento prático da mídia pode permitir que todos nós pensemos criticamente sobre o contexto da mídia e nos tornemos cidadãos mais engajados enquanto ainda  apreciamos a sátira e a paródia. Embora nem todas as mídias sintéticas sejam ruins, mesmo uma curta intervenção com recursos de alfabetização midiática tem mostrado que ajuda as pessoas a identificá-las e tratá-las com mais cautela”, explica a empresa.

Com essa meta no horizonte, a Microsoft produziu uma experiência interativa que conduz o usuário através de uma série de conteúdos que podem ou não ser falsificados, além de trazer informações relevantes sobre o tema. Para muitos, esse pode ser o primeiro contato com um Deep Fake dentro de um ambiente controlado e o processo funciona como uma espécie de treinamento para o mundo real e mídias sintéticas geradas com o propósito de manipulação. O serviço Spot the Deepfake está disponível para todos, em Inglês ou Espanhol.

Como uma das lições da experiência, é importante lembrar que “os criadores de deepfakes manipuladores e outras mídias geralmente tentam fazer com que as pessoas pensem com o coração em vez de com a cabeça. Uma das melhores coisas a fazer é monitorar como você está reagindo emocionalmente a um vídeo ou foto e, se tiver uma resposta forte, pergunte-se por que o criador dessa mídia pode querer que você se sinta assim”.

Carregando...

Você pode se interessar

Como planejar e construir um projeto de programação
Artigos
31 visualizações
Artigos
31 visualizações

Como planejar e construir um projeto de programação

Carlos L. A. da Silva - 19 de abril de 2021

O desenvolvedor full stack Peter Lynch revela seu método de preparação para qualquer projeto, de forma simples e direta para iniciantes e veteranos.

15 ferramentas de desenvolvimento para melhorar sua produtividade em 2021 sem gastar nada
Artigos
165 visualizações
Artigos
165 visualizações

15 ferramentas de desenvolvimento para melhorar sua produtividade em 2021 sem gastar nada

Carlos L. A. da Silva - 2 de abril de 2021

O cenário de desenvolvimento está em constante mudança e muitas vezes uma ferramenta nova pode agilizar muito seu trabalho.

A tecnologia por trás do deep fake de Deep Nostalgia
Artigos
162 visualizações
Artigos
162 visualizações

A tecnologia por trás do deep fake de Deep Nostalgia

Carlos L. A. da Silva - 22 de março de 2021

Serviço do My Heritage permite "animar" fotos do passado, trazendo vida para seus antepassados. Como isso é possível?

Deixe um Comentário

Your email address will not be published.

Mais publicações

Como se tornar um Engenheiro DevOps em 2021
Artigos
148 visualizações
148 visualizações

Como se tornar um Engenheiro DevOps em 2021

Carlos L. A. da Silva - 1 de março de 2021
Seus dados vazaram. E agora?
Artigos
128 visualizações
128 visualizações

Seus dados vazaram. E agora?

Carlos L. A. da Silva - 19 de fevereiro de 2021
Entendendo o elemento time em HTML 5
Artigos
145 visualizações
145 visualizações

Entendendo o elemento time em HTML 5

Carlos L. A. da Silva - 5 de fevereiro de 2021