21 de enero de 2022 | 01:41
Tecnología

TikTok: Su algoritmo tiende a recomendar contenido tóxico

TikTok: Su algoritmo tiende a recomendar contenido tóxico, de acuerdo a una investigación reciente
TikTok
Compartir en

TikTok: Su algoritmo tiende a recomendar contenido tóxico, según una investigación hecha recientemente por The Wall Street Journal.

Para lograr esta conclusión del algoritmo de TikTok, crearon una serie de bots con intereses determinados que se pusieron a ver videos relacionados a los temas asignados.

Aunque supuestamente TikTok y su algoritmo recomiendan contenido que tenga que ver con tus gustos y enfocado a los videos vistos en tu historial, la realidad es que no es perfecto.

Si bien los bots se mantuvieron “sanos” durante un tiempo, notaron que si por error ves un video con temática tóxica o hiriente con hashtags como “suicidio” o “desorden alimenticio”, TikTok te mandaría a un “agujero de conejo”.

El algoritmo de TikTok interpreta que el “suicidio” o “desorden alimenticio” son parte de tus intereses, por lo que comenzará a recomendar más videos relacionados.

Esto genera un efecto bola de nieve, donde se comenzarán a presentar más y más videos de este tipo en tu cuenta de TikTok, los cuales reemplazarán a tus intereses originales.

Al final de la investigación notaron que el 93 por ciento de los videos que TikTok le recomendó a los bots eran sobre “depresión”, que no tenía nada que ver con las primeras búsquedas.

TikTok y su algoritmo tiene el mismo problema con el contenido tóxico que otras redes sociales

La investigación de The Wall Street Journal sobre TikTok y su algoritmo es una evidencia más del problema que tienen las redes sociales manejando el contenido tóxico.

Los algoritmos en general, no sólo el de TikTok, han demostrado una tendencia en darle el foco de atención a los contenidos tóxicos e hirientes para los usuarios.

Sólo hay que ver lo que recientemente se reveló sobre Facebook e Instagram; estos servicios le dan preferencia a publicaciones que desaten reacciones negativas. Lo mismo pasaría con TikTok.

En ese sentido, los usuarios de TikTok y demás redes evitan casi en su totalidad exponer contenido positivo a sus usuarios, incluso si estos no tienen interés en material sensible o de odio.

Los adolescentes serían los más afectados por esta tendencia, al ser quienes recurren más a redes sociales como TikTok, Facebook e Instagram.

De momento, TikTok no se ha pronunciado al respecto acerca del funcionamiento de su algoritmo.

Con información de The Wall Street Journal.