Ex moderadores de TikTok alertan de los contenidos violentos en la red: "Escenas de decapitaciones o mutilaciones"
Los responsables de la compañía subcontratada por la plataforma niegan el contenido violento
Moderadores que trabajaron para Majorel SP Solutions, S.A.U., empresa con sede en Barcelona dedicada a moderar y filtrar contenidos de la plataforma TikTok, han asegurado a preguntas de Europa Press que revisaban contenidos violentos, como "decapitaciones o mutilaciones".
Así lo ha relatado una exempleada que sostiene que, pese a que no era algo que ocurriese diariamente, sí se daba con la suficiente frecuencia como para que le afectase emocionalmente: "En ocasiones, nos encontrábamos con vídeos en los que se mostraban escenas muy violentas, como decapitaciones o mutilaciones mientras las víctimas seguían con vida".
Tres de los responsables de la empresa que declararon el pasado lunes en el Juzgado de Instrucción 9 de Barcelona negaron que los trabajadores revisaran contenido audiovisual "altamente perturbador" y que si lo hacían era de forma residual, según explicó el abogado Francesc Feliu, representante legal de la querellante, tras la comparecencia.
"Contenido sexual"
Esta exempleada coincide que no fue de forma continua, pero sostiene que sí que estuvieron expuestos a contenidos de violencia explícita, especialmente durante periodos de conflictos armados o guerras, cuando "llegaba contenido especialmente duro".
Su versión encaja con la de otra extrabajadora, también consultada por Europa Press, que explica que vio decapitaciones y vídeos de cáracter sexual, aunque no de forma excesiva, porque el grueso del contenido que visionaban era musical y que por eso no considera que le haya afectado psicológicamente: "Se colaba algún vídeo, pero en general no eran vídeos duros".
"Había psicólogos con los que hablar"
No obstante, la primera de las extrabajadoras difiere de la versión de la querellante, que alegó que sólo podían parar 5 minutos cada hora, sin posibilidad de un descanso extra si resultaba impactada, y que tenían que visualizar íntegramente los contenidos, de entre 1 y 4 minutos: "Podíamos parar e incluso no moderar hasta el final y había psicólogos con los que podíamos hablar en cualquier momento. En eso no puedo quejarme".
Sobre cómo se distribuía el trabajo, señala que en la sede de Majorel de Barcelona que había dos departamentos y que algunos trabajadores estaban más expuestos que otros a los contenidos de violencia esplícita: los que estaban en TikTok1 veían "lo más peligroso y violento", que no llegaba a TikTok2 porque ya habían sido revisados.
"Imágenes horribles"
La misma extrabajadora sostiene que, en un momento de su vida en el que se encontraba baja de ánimo por una cuestión personal estalló un conflicto armado y los contenidos que tuvo que revisar le afectaron especialmente: "Tuve que ver imágenes horribles que me impactaron mucho".
A causa de esta situación, asegura que cayó en una depresión, pero aun así siguió trabajando y que no se sintió apoyada ni por la empresa ni por sus propios compañeros: "Me sentía completamente sola, deprimida y sin ayuda".
"Condiciones laborales inhumanas"
La investigación se inició después de que una empleada presentara una querella contra 4 de los responsables de esta empresa por delitos contra los trabajadores, contra la integridad moral y por lesiones graves por imprudencia, alegando que la compañía imponía a sus empleados unas "condiciones laborales absolutamente inhumanas" e inaguantables para cualquier ser humano.
En la querella figuran como responsables civiles subsidiarios las empresas Majorel, Tiktok Technology Limited y su filial Tiktok Information Technologies Spain.
1.200 vídeos al día
La empleada sostiene que cuando comenzó a trabajar en la empresa en 2019 fue contratada como "teleoperadora", que no recibió formación a nivel preventivo frente a los riesgos psicosociales inherentes al puesto que iba a desempeñar y que no se le indicó que debía visualizar contenidos sumamente violentos.
De hecho, sostiene que la compañía "minimizaba" este detalle tanto en las entrevistas de trabajo como en las sesiones de entrenamiento que realizaban una vez contratados. Alega que revisaban hasta 1.200 vídeos al día, entre los que había material "altamente sensible y perturbador" como vídeos de asesinatos, decapitaciones, descuartizamientos, violaciones, zoofilia, pornografía infantil, abusos a menores, desmembramientos, suicidios en directo, torturas y terrorismo.
A la trabajadora le dieron la baja por incapacidad temporal en 2023 tras no aguantar más"la exposición a este contenido altamente sensible por haber desarrollado un trastorno mental" y ese mismo año presentó varias denuncias ante la Inspección de Trabajo y de la Seguridad Social de Barcelona para dar a conocer las condiciones de los moderadores.
"Una empresa sin escrúpulos"
Esto dio pie a un acta de Inspección de Trabajo en 2024 que concluía que existe una causa-efecto entre la omisión de medidas de prevención y las secuelas psíquicas sufridas por la trabajadora.
Sostiene que la empresa no adoptó medidas técnicas u organizativas para reducir el impacto de la exposición, como filtros visuales o distribución equilibrada del contenido sensible y que "no tomó las medidas necesarias para proteger la seguridad y salud de la trabajadora frente a los riesgos psicosociales inherentes a su labor". Preguntada una de las extrabajadoras si volvería a trabajar como moderadora, indica que con la misma compañía, nunca: "En mi opinión, es una empresa sin escrúpulos".
Temas
Más en Sociedad
-
Navarra, una de las comunidades en las que menos avanza la privatización de la sanidad
-
Marcos Llorente no tiene razón en su cruzada contra las estelas de los aviones
-
El árbol de Navidad de Vigo todavía más alto, con 45 metros de altura y 100.000 luces led
-
El Sindicato Médico pide la retirada de la normativa foral sobre plazas de difícil cobertura en el SNS