Tay, Microsoft's racist and xenophobic robot


Tay, la "bot" de Microsoft

Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado.

Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web.

Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso.

Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.



 

Insultos raciales y comentarios sexistas

Tay

En su primera publicación se mostraba emocionada por interactuar con los humanos.

 

Tay

A las pocas horas, su actitud cambió: «Soy una buena persona. Simplemente odio a todo el mundo», dijo Tay.

Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.

His empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.

También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

Inicialmente, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.

«Desafortunadamente, a las 24 horas de ser colocada en internet (este miércoles), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada», explicó en un comunicado.

Peter Lee, jefe del área de Inveatigación de Microsoft aseguró que la compañía«sentía profundamente los tuits ofensivos y dañinos, no intencionados».



 

«Proyecto de aprendizaje»

Algunos usuarios también criticaron limitaciones en temas relacionados con la música o la televisión.

Otros se mostraron preocupados ante lo que Tay podría significar para las futuras tecnologías de inteligencia artificial.

«Tay es un robot de inteligencia artificial yun proyecto de aprendizaje diseñado para la interacción con humanos«.

Tay, la

Microsoft dijo que las «respuestas inapropiadas» de Tay indicaban la interacción con algunos usuarios.

 

«A medida que aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella», agregó el portavoz.

En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que «la dejen aprender por ella misma».

Microsoft dijo que reprogramará y lanzará proximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.

 

 

 

 

 

 

Previous How did the arrival of the man in the Moon inspired the idea of the brain of Google?
Next Adjust printing to our ticket printer (Updated)

No Comment

Leave a reply

Your email address will not be published. Required fields are marked *