Microsoft se disculpa por los comentarios racistas de su robot Noticias de Queretaro
Menu
Facebook
Twitter
Instagram
Google
Pinterest
Contacto
USUARIO PASSWORD

image
Microsoft se disculpa por los comentarios racistas de su robot

En un comunicado oficial, la marca aceptó que Tay no estaba preparada para recibir y filtrar tantos comentarios, lo que hizo que publicara comentarios misóginos y racistas.

vanguadia.com.mx , 2016-03-28 16:36:10

Después de que usuarios de Twitter hicieran que la inteligencia artificial adolescente de Microsoft publicará comentarios inapropiados, la empresa publicó una disculpa pública.

En su blog oficial, Microsoft explicó que aunque Tay fue programada con varios filtros, no estaba preparada para "ser atacada" por un grupo específico de usuarios que vulneraron el sistema; por lo que el chatbot hizo fue incapaz de filtrar los comentarios racistas y misóginos por los cuales fue criticado. 

“Estamos profundamente apenados por los comentarios ofensivos de Tay, los cuales no representan en absoluto nuestros ideales o quienes somos.”, se lee en el blog.

Por el momento, Tay se encuentra suspendida pero Microsoft asegura que está trabajando en los ajustes necesarios y admite que en cuanto a inteligencia artificial se refiere, se debe de tener precaución para que la gente no le dé un mal uso.

Este no es el primer experimento con inteligencia artificial que la compañía realiza. En 2014 lanzó XiaoIce, un robot muy parecido a Tay y el cual estaba dirigido exclusivamente al público chino.

“La gran experiencia con XiaoIce nos hizo preguntarnos si una inteligencia artificial podría ser igual de cautivadora en un ambiente cultural radicalmente diferente y Tay fue nuestro primer intento de responder este cuestionamiento”. 

Y al parecer, no resultó como se pensaba. 


Escrito por: Queretaro.com.mx
Facebook: directorioqueretaro.com.mx
Twitter: @queretarocommx

Todas las opiniones expresadas en éste espacio pertenecen exclusivamente a su autor y queretaro.com.mx no asume responsabilidad de las mismas.