La empresa contratada en Barcelona para Meta tiene un 20% de la plantilla de sus moderadores de baja por estrés postraumático. Estos trabajadores son los encargados de filtrar y eliminar contenidos no aptos para la plataforma y algunos de ellos incluso acaban en tratamiento psiquiátrico severo por la dureza de los contenidos que deben filtrar.

Y, es que, entre los contenidos que deben eliminar se encuentran asesinatos, agresiones sexuales, pornografía infantil y suicidios. "Seguía en período de prueba y vi un contenido de pedofilia pura. No poda tener relaciones sexuales con mi novio porque tenía esa imagen en la cabeza", denuncia uno de los empleados, que ha estado seis meses de baja.

"Habría que informar en qué consiste y tener en cuenta factores de vulnerabilidad", propone la psicóloga Rebeca Cáceres, ya que "puede generar falta de concentración, alteraciones del sueño, ansiedad o depresión".