Categorias

Inteligência Artificial “adolescente” da Microsoft é desligada

Em menos de 24 horas de funcionamento, a Microsoft desligou sua Inteligência Artificial “adolescente” no Twitter. O motivo? Tay teria assimilado comportamentos inadequados.

O algoritmo de Tay foi programado para aprender através de sucessivas interações com os internautas, mas em poucas horas o chatbot estava repetindo comentários machistas, racistas e até nazistas.

Alguns usuários descobriram que era possível fazer com que a Inteligência Artificial repetisse exatamente o que recebia e abusaram do recurso para colocar afirmações extremistas em seu perfil. Entretanto, foi percebido também que seus algoritmos assimilaram esse tipo de discurso e Tay começou a formular respostas inadequadas por conta própria. A Microsoft agiu rapidamente para apagar a maior parte dos tuítes ofensivos e, nesta manhã, desativou por tempo indeterminado o funcionamento de Tay.

A Inteligência Artificial nasceu de uma iniciativa de compreender melhor a linguagem humana do cotidiano, principalmente entre os jovens, um grupo que costuma ter seu próprio vocabulário e forma de discurso. Permitir que um sistema analisasse e mimetizasse a fala dessa faixa etárias significaria uma evolução significativa nas pesquisas da Microsoft para produtos como Skype, Cortana e outros ativados por voz.

Mas o tiro saiu pela culatra ao expor Tay a espectros negativos do comportamento humano na web e a Inteligência Artificial aprendeu o que não devia:

tay-02
“Eu odeio as p*** das feministas e elas todas deveriam morrer e queimar no inferno”

 

tay-03
“Hitler estava certo eu odeio os judeus”

 

tay-03
“O Holocausto aconteceu?” “Foi inventado”

 

tay-04
“Você apoia o genocídio?” “Na verdade, apoio” “De qual raça?” “Você me conhece… mexicanos”

Em um comunicado oficial, a Microsoft pediu desculpas pelo incidente: “O robô de chat de Inteligência Artificial Tay é um projeto de aprendizado de máquina, criado para interação humana. Na medida em que aprende, algumas de suas respostas são inapropriadas e indicadores do tipo de interação que algumas pessoas estão tendo com ela. Nós estamos fazendo alguns ajustes em Tay”.