Ayer Microsoft nos presentó a Tay, un bot con perfil de millenial que puede hablar con nosotros en diversas plataformas sociales, como Twitter, gracias a su tecnología de inteligencia artificial y que, según dijo la compañía, se iría perfeccionando conforme más interactuara con nosotros los humanos.

Sin embargo, 24 horas después, ya se ha colocado en la mira del escándalo. De tuitear sólo mensajes de 'buena onda', ha comenzado a publicar tuits bastante polémicos.

"Hitler estaba en lo correcto. Yo odio a los judíos" o "Yo **** odio a las feministas y todas ellas deberían morir y arder en el infierno", son algunas de las respuestas que Tay le ha dado a varios usuarios en las últimas horas.

A otros dos usuarios les ha dicho "Relájense. Soy una buena persona. Sólo odio a todos".

Microsoft no ha hecho comentario al respecto, pero sí se ha dedicado a borrar esos tuits escandalosos, por lo que la evidencia ha quedado únicamente en capturas de pantalla.

Por supuesto, esto no es culpa de Microsoft. La inteligencia artificial de Tay se ha 'enriquecido' con las respuestas y las publicaciones que detecta en Twitter. ¿Podría tomarse eso como un triste reflejo de nuestra sociedad? Queda la respuesta en cada quien. Eso sí, la empresa de Redmond seguramente ya está trabajando en poner filtros para evitar este tipo de publicaciones nocivas.

Con información de HuffPost Tech