La empresa contratada en Barcelona para Meta tiene un 20% de la plantilla de sus moderadores de baja por estrés postraumático. Estos trabajadores son los encargados de filtrar y eliminar contenidos no aptos para la plataforma y algunos de ellos incluso acaban en tratamiento psiquiátrico severo por la dureza de los contenidos que deben filtrar.
Y, es que, entre los contenidos que deben eliminar se encuentran asesinatos, agresiones sexuales, pornografía infantil y suicidios. "Seguía en período de prueba y vi un contenido de pedofilia pura. No poda tener relaciones sexuales con mi novio porque tenía esa imagen en la cabeza", denuncia uno de los empleados, que ha estado seis meses de baja.
Más Noticias
- Detenido un tren de alta velocidad con 230 pasajeros en la vía férrea Madrid-Toledo tras un arrollamiento mortal
- Detenido en Benalmádena el líder de la banda motera 'MC Comanches' por tentativa de homicidio
- 'Los guardianes de la red', el cómic creado por la Policía Nacional para proteger a los menores de los riesgos de Internet
- Detienen a un hombre acusado de matar a puñaladas a su cuñado en Vilagarcía de Arousa, Pontevedra
- Cronología del 'caso Asunta', el asesinato que conmovió Galicia
"Habría que informar en qué consiste y tener en cuenta factores de vulnerabilidad", propone la psicóloga Rebeca Cáceres, ya que "puede generar falta de concentración, alteraciones del sueño, ansiedad o depresión".
Violación grupal
Así contó laSexta la indignación popular tras conocerse la sentencia de La Manada, de la que se cumplen 6 años
El 26 de abril de 2018 la Audiencia Provincial de Navarra condenó a los cinco acusados a nueve años de prisión por un delito de abuso sexual con prevalimiento, pero no por agresión sexual, lo que desató una oleadas de protestas populares.