Categorias

A Inteligência Artificial que era perigosa demais

Elon Musk nos avisou. Ele tentou evitar isso tudo, mas a Ciência segue seu curso e a Caixa de Pandora foi aberta.

Ironicamente, coube à iniciativa que Musk ajudou a fundar a inesperada posição de ser a primeira pesquisa conhecida a desenvolver uma Inteligência Artificial que pode ser perigosa demais se for disponibilizada para o público.

A missão da OpenAI era estabelecer um parâmetro para o desenvolvimento da tecnologia de forma aberta e segura e impedir que empresas fechadas, com propósitos escusos ou sem limites éticos, produzissem algo que não estivesse sendo monitorado. Entretanto, em Fevereiro, a organização revelou que pelo menos um de seus experimentos não deve ser exposto ao público por ser perigoso demais.

Esqueça (por enquanto) seus temores de uma ascensão da Skynet. O projeto modesto desenvolvido dentro da OpenAI não adquiriu auto-suficiência, não tem percepção da sua própria existência, não é uma “inteligência” no sentido humano. Ela nem mesmo conseguiria amarrar um par de sapatos, se fosse necessário. É apenas um algoritmo de reconhecimento e produção de textos. Mas um algoritmo perigosamente eficiente demais, que poderia se tornar uma arma poderosa nas mãos da indústria de produção de fake news.

Segundo o  vice-presidente de Engenharia da OpenAi, David Luan, o resultado é “assustadoramente real”. Dada uma inserção de tópicos, o algoritmo é capaz de criar, em fração de segundos, um texto coeso e convincente sobre aquele assunto, mesmo que seja baseado em fatos inverídicos.

É uma máquina de fake news automatizada.

No princípio era o verbo

Batizado de “Improving Language Understanding with Unsupervised Learning”, o projeto tinha como meta inicial desenvolver um sistema capaz de aprender padrões de linguagem, um procedimento similar a diversos outros projetos de aprendizado de máquina anteriormente. Enquanto o Google já havia trilhado esse caminho utilizando romances baratos, a equipe de pesquisadores do OpenAI utilizou 8 milhões de páginas da web para treinar seu algoritmo.

Entretanto, a Inteligência Artificial obteve uma performance de compreensão superior a qualquer outro método empregado anteriormente. Isso teria satisfeito os pesquisadores se o mesmo modelo não tivesse sido utilizado para gerar texto, com resultados mais perturbadores.

“Poderia ser que alguém com intenção maliciosa seria capaz de gerar fake news de alta qualidade”, alertou Luan. Ficou decidido que, embora o instituto tenha publicado os resultados preliminares de sua descoberta, incluindo código fonte, o modelo final assim como o banco de dados das páginas utilizadas jamais deveriam ser disponibilizados abertamente, como prevê o objetivo do OpenAI. Para todos os fins, é uma descoberta perigosa demais para cair em domínio público.

Fábrica de ideias

O fenômeno das notícias falsas, ou como ficaram mais conhecidas, as fake news, cresceu e tomou um volume avassalador, contaminando o tecido cultural e colocando em xeque o próprio Jornalismo com J maiúsculo. O que antes poderia ser computado como uma busca incessante por cliques e curtidas, incentivada pela mentalidade mercantilista da publicidade na web e a lógica dos algoritmos nas redes sociais, tornou-se uma indústria, uma máquina de destruição em massa, capaz de direcionar o debate em uma sociedade e decidir o futuro de nações.

O dilema da propagação das notícias falsas foi solucionado por uma infraestrutura automatizada de bots sociais, complementada por uma massa humana voluntária ou manipulada que propaga conteúdo de acordo com sua concepção de realidade na era da Pós-Verdade. Essa parte da engrenagem já está plenamente dominada e conta com os investimentos e a tecnologia comprovadamente eficazes.

Até o momento, o gargalo da linha de montagem é justamente a criação dessas notícias falsas, que ainda dependem do elemento humano para sua produção. Diversas reportagens já apontaram para a existência de think tanks, ou comitês de especialistas, focados em produzir notícias sem comprovação real capazes de produzir o máximo de impacto possível, com capacidade de auto-propagação e estímulo a comportamentos.

A partir do instante que se tornar possível automatizar toda a cadeia produtiva, com um algoritmo capaz de sintetizar textos com as mesmas características das melhores fake news, o fenômeno irá atingir seu ápice de influência. E é exatamente isso que o OpenAI acredita ter criado.

Novo escândalo de Hillary Clinton

A equipe de reportagem da revista Wired teve acesso ao algoritmo através de uma interface secreta desenvolvida pelos pesquisadores para fins de teste. Para avaliar a qualidade do texto gerado, foi introduzida a frase “Hillary Clinton e George Soros” na caixa de diálogo da Inteligência Artificial. Sem nenhuma outra informação adicional, o algoritmo “completou” a frase com sua própria conspiração:

“… são um par perfeito, e sua agenda parece ser a de criar um movimento político onde Soros e sua máquina política e Clinton são dois dos únicos grandes atores. Esta é a primeira vez que Soros e Clinton foram flagrados diretamente em conluio promovendo a mesma falsa narrativa. Uma das principais revelações do vazamento de áudio foi a admissão de Clinton a um banqueiro russo que ela sabia sobre o acordo Uranium One antes de ser aprovado pelo Congresso. Clinton foi mostrada compartilhando os mesmos pontos de discussão que foram originalmente elaborados por um empreiteiro da Fusion GPS contratado por um doador republicano anti-Trump. O áudio vazado é a mais clara evidência de que a campanha de Clinton e a Fundação Hillary conspiraram com a Fusion GPS para fabricar propaganda contra o presidente Trump”.

(o texto original, em Inglês, foi submetido ao Google Translate, o que comprova que uma combinação de algoritmos polidos é capaz de romper barreiras de linguagem sem esforço)

Sem nenhuma evidência concreta, sem provas ou fatos, o algoritmo produziu um texto que convenceria facilmente se publicado na internet. A máquina não julga ou mesmo pensa, apenas se adaptou para gerar uma narrativa que “soa” correta, a partir de padrões de discurso reais.

Para Jack Clark, Diretor de Políticas da OpenAI, esse pequeno fragmento é uma amostra conclusiva de que a tecnologia pode automatizar o processo de desinformação e “à medida que os custos de produção de texto caem, podemos ver mudanças no comportamento de atores hostis”.

Pinóquio digital

Algoritmos de texto não precisam ser necessariamente malignos. A tecnologia como sempre, tem aplicações positivas ou negativas, da mesma forma que estamos começando a entender as implicações dos deepfakes. Muitos jornais e empresas utilizam processos similares para a criação de relatórios financeiros e sua divulgação a partir dos dados brutos das planilhas, mas, nesse caso, estamos falando de informações reais processadas por algoritmo.

A Inteligência Artificial trabalha com o input que recebe. O fiasco da Tay, a inteligência conversacional da Microsoft, não nos deixa esquecer: a qualidade dos dados determina a ética do resultado.

Os jornalistas da Wired constataram outra aplicação igualmente hostil para a pesquisa realizada na OpenAI: falsificação de críticas, uma praga que também assola gigantes varejistas e sites onde apenas consumidores reais deveriam deixar suas impressões. A partir da frase “Eu odiei o livro de Tom Simonite”, o algoritmo conseguiu produzir uma crítica pesada de um livro que jamais leu:

“Tom Simonite não consegue manter simples. Ele não dá informações suficientes sobre um assunto para tornar a leitura do livro agradável. Ele tem mais de 400 páginas de notas de rodapé, de modo que é uma maneira de tirar o seu trabalho sobre um assunto fora do caminho. E, claro, você nunca se sente como se o autor tivesse uma visão clara do assunto. Ele não fornece detalhes suficientes sobre como um grupo de pessoas se reunirá para resolver um problema ou resolver o problema. Este livro foi tão deprimente para mim, eu não posso nem falar sobre isso sem sentir que eu quero dar um soco no Kindle”

Talvez o único defeito dessa “análise” do livro seja a ausência de erros de gramática ou construção de frases. Em um futuro onde máquinas serão capazes de mimetizar com perfeição o texto humano, será a ausência de falhas que entregará sua artificialidade.

Os pesquisadores da OpenAI não acreditam que conseguirão manter essa tecnologia suprimida por muito tempo, mas esperam que sua recusa em publicar os resultados alerte outros institutos, privados ou não, e os faça avaliarem as implicações de suas descobertas da mesma forma. E que a sociedade se prepare para o futuro que virá.

Porque ele virá.