Un nuevo informe asegura que la IA de Facebook solo elimina el 5% de los discursos de odio, una nueva polémica para la plataforma que se ha visto en el ojo público durante las últimas semanas.

Un nuevo reporte del Wall Street Journal cita documentos internos del 2019 en su informe por ingenieros de redes sociales sobre Facebook.

De acuerdo con las declaraciones, la IA de Facebook solo elimina el 5% de los discursos de odio, es decir una parte mínima dentro de toda su plataforma.

Según lo que redactan en este nuevo reporte, el algoritmo de la IA de Facebook no es capaz de detectar todos los discursos de odio o diferenciar entre una gran cantidad de contenido similar.

[object Object]

Facebook asegura que los discursos de odio han logrado reducirse en un 50%

Contrario a lo que afirma el Wall Street Journal, Facebook asegura que se han logrado reducir los discursos de odio en un 50% en los últimos tres años.

Pero, según los datos del periódico y testimonios de ex empleados, la IA de Facebook solo elimina entre el 3% y el 5% de los discursos de odio o que incitan a la violencia.

Esto se debe en gran parte porque Facebook decidió prescindir del equipo humano que detectaba este tipo de publicaciones racistas, de odio, que incitaban a la violencia o noticias falsas.

Y, a su vez, apostaron por una IA que aparentemente detecta este tipo de publicaciones sin necesidad de filtros humanos.

[object Object]

El contenido no detectado se muestra menos pero no se elimina

Según lo confirmado por la propia empresa de Facebook, las publicaciones o contenidos que no cumplen con sus normas pero que no son detectados por la IA, se muestran menos pero no son eliminados.

En ese sentido y según como lo señala en WSJ, la estrategia de Facebook sobre querer eliminar contenido con la IA, no es la forma correcta de luchar en contra el discurso de odio.

Con información del Wall Street Journal y Digital Trends.