28 de abril de 2024 | 09:16 a.m.
Tecnología

Microsoft desconecta a Tay tras polémicos tuits; culpa a un grupo de usuarios por abuso y malicia

El experimento ha puesto de manifiesto que aún hay mucho que hacer en la inteligencia artificial.
Compartir en

Después de que Tay, el bot con inteligencia artificial que Microsoft lanzara ayer, comenzara a tuitear mensajes misóginos, racistas, sobre el Holocausto judío, e incluso mostrando repudio contra México y replicando la propuesta de Trump acerca de construir un muro fronterizo, la empresa de Redmond lo ha desconectado.

En un principio, Microsoft sólo se dedicó a borrar algunos de los mensajes ofensivos tuiteados por Tay como respuesta a sus conversaciones con diversos usuarios, pero al final ha decidido suspender su actividad para seguir desarrollándolo y realizar ajustes en su inteligencia artificial.

Estos tuits polémicos surgieron como consecuencia de la habilidad de Tay ajustar sus publicaciones según la personalidad y las preguntas de los usuarios humanos que hablaban con ella.

Al respecto, Microsoft ya emitió la siguiente declaración publicada en TechCrunch:

Sin duda, Tay ha sido un experimento que, en sólo 24 horas, nos ha dado qué pensar, tanto en lo tecnológico como, efectivamente, en lo cultural y social.

Con información de TechCrunch