*Advertencia: el texto a continuación incluye referencias a contenido sensible.
En las redes sociales se mueven todo tipo de contenidos, algunos tan perturbadores que son difícilmente descriptibles. Los moderadores son quienes se enfrentan a ellos: una labor titánica, que implica una exposición constante a imágenes extremas y violentas, cuyos entresijos desvelan dos de estas trabajadoras en Salvados, a quienes nos referimos como 'Vanessa' y 'Carmen' para preservar su identidad. Ambas trabajaban para Telus International, una subcontrata de Meta, la compañía propietaria de Facebook e Instagram.
Los moderadores de contenidos, explica 'Vanessa' a Gonzo, actúan bien "porque un usuario se ha tomado el tiempo de hacer la denuncia sobre ese contenido" o porque este ha sido detectado por un bot de Meta, al que no obstante "le falta mucho para ser preciso".
Esos contenidos, detalla, se organizan de forma similar a una cola de reproducción con varios vídeos en espera: "Es un popurrí, tú pasas de un meme a una imagen terrible a luego una felicitación de cumpleaños... Tus emociones durante el día van subiendo y bajando a medida que vas viendo el contenido", explica la moderadora.
Ante cada contenido, los moderadores disponen de cuatro opciones: "validar" o permitir el contenido, "advertir", "borrar" o "escalar". Así, precisa, se borran contenidos de discurso de odio o bullying, mientras que a otros se les pone el "filtro de contenido delicado" para advertir al usuario antes de que acceda. Sería el caso, por ejemplo, de "una cirugía donde se pueda ver un órgano". "Te puede dar impresión, entonces sale esa pantalla que te advierte de que lo que vas a ver te puede afectar", ilustra.
La cuarta opción, "escalar" un contenido, consiste en remitirlo a "un departamento superior". "Subir a un departamento superior, que no sabemos ni dónde está", subraya 'Carmen', que señala que "hay diferentes tipos de escalaciones". "Si están violando o a punto de hacerlo a un menor o alguien va a suicidarse y tienes una serie de cosas que te están indicando que es verdad que lo va a hacer o que podría llegar a ser real", precisa.
Los moderadores, sin embargo, no llegan a saber si la empresa lo hace llegar a la Policía o a las autoridades. "A nosotros nadie nos explica, porque nos dicen: 'Esto va a otro departamento'", señala 'Carmen'. "Yo no creo que sirva de mucho, si no estaría en las noticias continuamente", reconoce.
El desconcertante criterio de Meta
Sin embargo, según denuncia 'Vanessa', no es nada fácil ni intuitivo elegir una de las cuatro opciones: la moderadora cita como ejemplo un vídeo de una mujer "con un sable enorme persiguiendo a su niña para cortarla con el sable" en el que "ambas estaban desnudas". Ella eligió la categoría "violencia contra un niño", pero fue "un error porque más alto que eso era que estaba desnuda y se veía el pezón".
"Quizá para ti o para mí lo más fuerte es que una madre quiere matar a su hija, para Meta lo más fuerte es que hay un pezón", incide la moderadora, que señala que "luego te acostumbras a no cometer ese error y a estar bien concentrado en esta escala de jerarquías". Por su parte, 'Carmen' denuncia que el sistema no avisa al moderador de que va a ver un contenido muy extremo. "Generalmente los contenidos más fuertes que llegas a ver te pillan por sorpresa", afirma.
Reaccionar a suicidios en vivo
Entre esos contenidos, según desgrana 'Vanessa', además hay suicidios y ataques terroristas en vivo ante los que hay que reaccionar rápido. "Es lo peor porque te sientes el dueño casi de la vida de alguien, la responsabilidad es enorme", apunta por su parte 'Carmen'. "¿Cómo reaccionarías si tienes en tu pantalla alguien que dice que va a matar a alguien o alguien que está a punto de violar a un niño pequeño? La mezcla de sensaciones es tan física que te pondrías a vomitar", sostiene. "Y no puedes hacer nada porque lo único que puedes hacer es escalarlo, no puedes hacer nada real para esa persona, es horrible", lamenta.
Además, según explica 'Vanessa', para escalar ese tipo de contenido "tienes que estar seguro de que esa persona realmente va a saltar". "Es muy difícil gestionar eso porque tampoco te permiten escalar cosas que luego no van a suceder. Para ti que estás mirando a una persona es como: '¿Se tira o no se tira? ¿Lo escalo o no lo escalo?'", detalla.
Y todo ello con un tiempo limitado: "Tú tienes que cumplir con un tiempo por cada 'ticket'. Tienes una pequeña excepción en casos de suicidio porque tienes que esperar a lo que pase. Entonces, si esta persona no se suicida rápido, por decirlo así, tú tienes que esperar más tiempo del que tendrías y entre comillas te 'arruina' tus métricas, porque tú tienes un ticket cada 60 segundos". "Cuando te cae un vídeo así lo primero que piensas es 'ay, mis métricas'", admite.
Para 'Carmen', su reacción natural ante este tipo de contenido sería "escalarlo lo antes posible, apagar el ordenador" y echarse "en el sofá a llorar", pero no puede.
Valencia, día uno
El alcalde de Alfafar confiesa que estaba "tirando de una señora para que no se la llevase la corriente" cuando saltó la alarma
Mientras que unos pedían helicópteros para buscar a sus vecinos ya desaparecidos, otros convertían sus ayuntamientos en auténticos refugios. En Alfafar, su alcalde rescataba a una vecina.