{"id":37657,"date":"2016-03-31T09:55:39","date_gmt":"2016-03-31T15:55:39","guid":{"rendered":"http:\/\/webirix.com\/?p=37657"},"modified":"2016-03-31T09:55:39","modified_gmt":"2016-03-31T15:55:39","slug":"tay-la-robot-racista-y-xenofoba-de-microsoft","status":"publish","type":"post","link":"https:\/\/webirix.com\/en\/tay-la-robot-racista-y-xenofoba-de-microsoft\/","title":{"rendered":"Tay, Microsoft&#039;s racist and xenophobic robot"},"content":{"rendered":"<p><img decoding=\"async\" class=\"aligncenter\" src=\"http:\/\/ichef-1.bbci.co.uk\/news\/ws\/660\/amz\/worldservice\/live\/assets\/images\/2016\/03\/25\/160325140549_tay_624x415_bbc_nocredit.jpg\" alt=\"Tay, la &quot;bot&quot; de Microsoft\" \/><\/p>\n<p class=\"story-body__introduction\">Se llamaba Tay y tard\u00f3 m\u00e1s en aprender a mantener una conversaci\u00f3n que en ser retirada del mercado.<\/p>\n<p>Fue creada, seg\u00fan Microsoft, como un experimento para conocer m\u00e1s sobre la interacci\u00f3n entre las computadoras y los seres humanos.<\/p>\n<p>Se trataba de un programa inform\u00e1tico dise\u00f1ado para<strong> mantener en las redes sociales una conversaci\u00f3n informal y divertida<\/strong> con una audiencia de entre 18 y 24 a\u00f1os, seg\u00fan explic\u00f3 la compa\u00f1\u00eda en su p\u00e1gina web.<\/p>\n<ul class=\"story-body__unordered-list\">\n<li class=\"story-body__list-item\"><strong><a class=\"story-body__link\" href=\"http:\/\/www.bbc.com\/mundo\/noticias\/2015\/09\/150914_tecnologia_inteligencia_artificial_hitos_10_turing_asimov_amv.shtml\">Los 10 hitos m\u00e1s importantes en la historia de la inteligencia artificial<\/a><\/strong><\/li>\n<\/ul>\n<p>Pero la gran apuesta del gigante tecnol\u00f3gico en la inteligencia artificial acab\u00f3 convirti\u00e9ndose en un fracaso estrepitoso.<\/p>\n<p>Y el d\u00eda despu\u00e9s de su lanzamiento, Microsoft tuvo que desactivarla.<\/p>\n<hr \/>\n<hr \/>\n<p>&nbsp;<\/p>\n<h2 class=\"story-body__crosshead\">Insultos raciales y comentarios sexistas<\/h2>\n<p><img decoding=\"async\" class=\"aligncenter\" src=\"http:\/\/ichef.bbci.co.uk\/news\/ws\/624\/amz\/worldservice\/live\/assets\/images\/2016\/03\/25\/160325141716_tay_624x351_bbc_nocredit.jpg\" alt=\"Tay\" \/><\/p>\n<p>En su primera publicaci\u00f3n se mostraba emocionada por interactuar con los humanos.<\/p>\n<p>&nbsp;<\/p>\n<p><img decoding=\"async\" class=\"aligncenter\" src=\"http:\/\/ichef-1.bbci.co.uk\/news\/ws\/624\/amz\/worldservice\/live\/assets\/images\/2016\/03\/25\/160325141519_tay_624x351_bbc_nocredit.jpg\" alt=\"Tay\" \/><\/p>\n<p>A las pocas horas, su actitud cambi\u00f3: &#8220;Soy una buena persona. Simplemente odio a todo el mundo&#8221;, dijo Tay.<\/p>\n<p>Los mensajes racistas y xen\u00f3fobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.<\/p>\n<p>His <strong>empat\u00eda hacia Hitler o su apoyo al genocidio <\/strong>al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, adem\u00e1s de insultos raciales y comentarios sexistas y hom\u00f3fobos.<\/p>\n<p>Tambi\u00e9n defendi\u00f3 el Holocausto, los campos de concentraci\u00f3n o la supremac\u00eda blanca, y se mostr\u00f3 contraria al feminismo.<\/p>\n<p>Inicialmente, un portavoz de Microsoft dijo que la compa\u00f1\u00eda est\u00e1 haciendo ajustes para asegurarse de que esto no vuelva a suceder y<strong> responsabiliz\u00f3 a los usuarios, en parte, por la reacci\u00f3n de Tay.<\/strong><\/p>\n<p>&#8220;Desafortunadamente, a las 24 horas de ser colocada en internet (este mi\u00e9rcoles), observamos un esfuerzo coordinado de algunos usuarios para<strong> abusar de las capacidades de conversaci\u00f3n de Tay<\/strong> para que respondiera de forma inapropiada&#8221;, explic\u00f3 en un comunicado.<\/p>\n<p>Peter Lee, jefe del \u00e1rea de Inveatigaci\u00f3n de Microsoft asegur\u00f3 que la compa\u00f1\u00eda<strong>&#8220;sent\u00eda profundamente los tuits ofensivos y da\u00f1inos, no intencionados&#8221;.<\/strong><\/p>\n<hr \/>\n<hr \/>\n<p>&nbsp;<\/p>\n<h2 class=\"story-body__crosshead\">&#8220;Proyecto de aprendizaje&#8221;<\/h2>\n<p>Algunos usuarios tambi\u00e9n criticaron limitaciones en temas relacionados con la m\u00fasica o la televisi\u00f3n.<\/p>\n<p>Otros se mostraron preocupados ante lo que Tay podr\u00eda significar para las futuras tecnolog\u00edas de inteligencia artificial.<\/p>\n<p>&#8220;Tay es un robot de inteligencia artificial y<strong>un proyecto de aprendizaje dise\u00f1ado para la interacci\u00f3n con humanos<\/strong>&#8220;.<\/p>\n<p><img decoding=\"async\" class=\"aligncenter\" src=\"http:\/\/ichef.bbci.co.uk\/news\/ws\/304\/amz\/worldservice\/live\/assets\/images\/2016\/03\/25\/160325141043_tay_la_bot_de_microsoft_304x171_microsoft_nocredit.jpg\" alt=\"Tay, la \" \/><\/p>\n<p>Microsoft dijo que las &#8220;respuestas inapropiadas&#8221; de Tay indicaban la interacci\u00f3n con algunos usuarios.<\/p>\n<p>&nbsp;<\/p>\n<ul class=\"story-body__unordered-list\">\n<li class=\"story-body__list-item\"><strong><a class=\"story-body__link\" href=\"http:\/\/www.bbc.com\/mundo\/noticias\/2015\/12\/151222_finde_robot_etica_sentimientos_amor_aw.shtml\">\u00bfPodr\u00edas llegar a amar a un robot?<\/a><\/strong><\/li>\n<\/ul>\n<p>&#8220;A medida que aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacci\u00f3n que algunos usuarios tienen con ella&#8221;, agreg\u00f3 el portavoz.<\/p>\n<p>En efecto, el bot fue creado para emitir<strong> respuestas personalizadas a los usuarios<\/strong>, recabando informaci\u00f3n sobre cada uno de ellos durante la interacci\u00f3n, lo cual explicar\u00eda ciertos comentarios, seg\u00fan la naturaleza del interlocutor.<\/p>\n<p>La compa\u00f1\u00eda decidi\u00f3 editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que &#8220;la dejen aprender por ella misma&#8221;.<\/p>\n<p>Microsoft dijo que reprogramar\u00e1 y lanzar\u00e1 proximamente de nuevo su bot adolescente, aunque no confirm\u00f3 la fecha exacta.<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>Her name was Tay, and it took her longer to learn to hold a conversation than to be recalled. It was created, according to Microsoft, as an experiment to learn more about the interaction between computers and human beings. It was a computer program designed to maintain an informal conversation on social networks and ...<\/p>","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2039],"tags":[],"class_list":["post-37657","post","type-post","status-publish","format-standard","hentry","category-curiosidades"],"jetpack_featured_media_url":"","_links":{"self":[{"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/posts\/37657","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/comments?post=37657"}],"version-history":[{"count":2,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/posts\/37657\/revisions"}],"predecessor-version":[{"id":37659,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/posts\/37657\/revisions\/37659"}],"wp:attachment":[{"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/media?parent=37657"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/categories?post=37657"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/webirix.com\/en\/wp-json\/wp\/v2\/tags?post=37657"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}