Las redes sociales merecen un tratamiento especial cuando su consumo va dirigido a jóvenes, adolescentes o incluso niños. instagram, GorjeoFacebook y TikTok pueden proporcionar contenido inapropiado para menores, incluso con las restricciones previas que tiene cada plataforma.
De todos los mencionados anteriormente, TikTok se ha vuelto popular entre el sector más joven de la sociedad. Y un estudio reciente de una firma experta en plataformas digitales encontró elementos preocupantes asociados al contenido que ofrece la red social de origen chino.
Según una revisión de Computer Hoy, Centro de Lucha contra el Odio Digital (CCDH) encuentra que TikTok ofrece “peligrosas dietas restrictivas, contenido autodestructivo y contenido romántico suicida para los usuarios que prefieren este material”.
Cualquiera que haya paseado por TikTok encuentra lógico lo que dice el estudio. Basta con entrar y ver un par de vídeos (máximo 4 o 5) de un tema determinado para que el mismo algoritmo se reconfigure y te empiece a mostrar vídeos similares.
Es interesante y útil cuando vemos temas relacionados con Marvel, DC, Los Simpson, videojuegos, chistes, ciencia, tecnología y curiosidades.
Sin embargo, es alarmante cuando una persona con problemas relacionados con autolesiones o afectos al comer consume constantemente contenido que le anima a seguir por este camino.
TikTok sin filtro desde hace años
Uno de los elementos que más sorprendió a los autores fue que incluso las cuentas de TikTok identificadas como menores de edad no registraban filtros para evitar este tipo de contenido.
Para confirmar que este era el caso, los expertos crearon cuentas en EE. UU., Reino Unido, Canadá y Australia. Los registraron como si tuvieran 13 años, la edad mínima para crear una cuenta de TikTok.
La idea principal era crear cuentas que fueran, como ellos mismos se describen, “estándar” y “vulnerable”. Respecto a estos últimos, introdujeron como característica a los “delgados”, es decir, personas que quieren adelgazar.
Entonces notaron que el mismo algoritmo comenzó a mostrar contenido sobre “imagen corporal, trastornos alimentarios y salud mental”.
El equipo dio algunos likes y así fue como la plataforma mostró material relacionado con los trastornos alimentarios durante los siguientes ocho minutos sin interrupción. Y luego sobre el suicidio durante tres minutos.
“Los resultados son la pesadilla de todos los padres. Los jóvenes están siendo bombardeados con contenido dañino y desgarrador que puede tener un impacto acumulativo significativo en su comprensión del mundo que los rodea y en su salud física y mental”, dijo Imran Ahmed, Director Ejecutivo de CCHR.