Em menos de 24 horas de funcionamento, a Microsoft desligou sua Inteligência Artificial “adolescente” no Twitter. O motivo? Tay teria assimilado comportamentos inadequados.
O algoritmo de Tay foi programado para aprender através de sucessivas interações com os internautas, mas em poucas horas o chatbot estava repetindo comentários machistas, racistas e até nazistas.
Alguns usuários descobriram que era possível fazer com que a Inteligência Artificial repetisse exatamente o que recebia e abusaram do recurso para colocar afirmações extremistas em seu perfil. Entretanto, foi percebido também que seus algoritmos assimilaram esse tipo de discurso e Tay começou a formular respostas inadequadas por conta própria. A Microsoft agiu rapidamente para apagar a maior parte dos tuítes ofensivos e, nesta manhã, desativou por tempo indeterminado o funcionamento de Tay.
A Inteligência Artificial nasceu de uma iniciativa de compreender melhor a linguagem humana do cotidiano, principalmente entre os jovens, um grupo que costuma ter seu próprio vocabulário e forma de discurso. Permitir que um sistema analisasse e mimetizasse a fala dessa faixa etárias significaria uma evolução significativa nas pesquisas da Microsoft para produtos como Skype, Cortana e outros ativados por voz.
Mas o tiro saiu pela culatra ao expor Tay a espectros negativos do comportamento humano na web e a Inteligência Artificial aprendeu o que não devia:
Em um comunicado oficial, a Microsoft pediu desculpas pelo incidente: “O robô de chat de Inteligência Artificial Tay é um projeto de aprendizado de máquina, criado para interação humana. Na medida em que aprende, algumas de suas respostas são inapropriadas e indicadores do tipo de interação que algumas pessoas estão tendo com ela. Nós estamos fazendo alguns ajustes em Tay”.