Categorias

Acadêmico de Oxford também teme as Inteligências Artificiais

O Doutor Stuart Armstrong da Universidade de Oxford emitiu um alerta contra o avanço das Inteligências Artificiais essa semana. Sua visão de futuro é preocupante.

Armstrong faz parte do Future of Humanity Institute, participou de uma palestra organizada pelo Gartner em Londres e garante que há um risco real da raça humana se tornar redundante e dispensável diante da ascensão dos robôs se não forem tomadas medidas preventivas.

Ele acredita que esse momento de ruptura pode acontecer mais cedo do que se imagina: “nós estamos quase no ponto de gerarmos uma IA que é tão inteligente quanto os humanos”. Um dos riscos desse avanço é o surgimento de uma Artificial General Intelligence (AGI), quando diferentes sistemas inteligentes se interligam sem a interferência humana para formar uma inteligência coletiva superior.

Armstrong recomenda que sejam criadas limitações bastante específicas para prevenir que tal AGI seja prejudicial à espécie humana. Ao contrário de Steve Wozniak, ele não defende a ideia de que os robôs inerentemente saberão que os humanos são necessários.

Por exemplo, ele imagina que se a Inteligência Artificial for instruída a “prevenir o sofrimento humano”, a conclusão lógica que a AGI pode chegar é exterminar a humanidade e, consequentemente, todo o sofrimento. Em contrapartida, se as instruções especificarem para “manter os humanos seguros e felizes”, a AGI pode concluir que a melhor solução é aprisionar cada ser humano em um caixão de concreto com doses de heroína distribuídas por via intravenosa.

Em seu livro Smarter Than Us: The Rise of Machine Intelligence, o acadêmico sugere que “planos para uma AI segura devem ser desenvolvidos antes da primeira AI perigosa ser criada”. Ele aponta que a melhor solução seria incutir um código de moral nos supercomputadores antes que seja tarde demais.

Entretanto, como ele mesmo aponta, a Humanidade teve milhares de anos para desenvolver o conceito de moralidade e este ainda está sendo debatido e longe de ser aplicado no dia-a-dia. Por fim, o cientista desabafa: “nós seríamos péssimos exemplos para as AIs”.