Después de que Tay, el bot con inteligencia artificial que Microsoft lanzara ayer, comenzara a tuitear mensajes misóginos, racistas, sobre el Holocausto judío, e incluso mostrando repudio contra México y replicando la propuesta de Trump acerca de construir un muro fronterizo, la empresa de Redmond lo ha desconectado.

En un principio, Microsoft sólo se dedicó a borrar algunos de los mensajes ofensivos tuiteados por Tay como respuesta a sus conversaciones con diversos usuarios, pero al final ha decidido suspender su actividad para seguir desarrollándolo y realizar ajustes en su inteligencia artificial.

Estos tuits polémicos surgieron como consecuencia de la habilidad de Tay ajustar sus publicaciones según la personalidad y las preguntas de los usuarios humanos que hablaban con ella.

Al respecto, Microsoft ya emitió la siguiente declaración publicada en TechCrunch:

Sin duda, Tay ha sido un experimento que, en sólo 24 horas, nos ha dado qué pensar, tanto en lo tecnológico como, efectivamente, en lo cultural y social.

Con información de TechCrunch