Bajo la lupa

Redes sociales y odio: por qué es vital que las plataformas actúan antes de que sea demasiado tarde

El contexto En Torre-Pacheco, municipio con alta presencia migrante, perfiles ultras difunden mensajes racistas y violentos sin control. Las plataformas solo actúan si alguien denuncia. ¿Hasta cuándo podrán ignorarlo?

Redes sociales y odio: por qué es vital que las plataformas actúan antes de que sea demasiado tarde

Torre-Pacheco vive en calma. Sin embargo, esa tranquilidad convive con una campaña de odio que circula por redes sociales: perfiles vinculados al entorno de la ultraderecha difunden mensajes xenófobos y racistas que ponen en el punto de mira a la población migrante, a la que incluso llaman "moros de mierda".

Los mensajes, difundidos a través de canales habituales del entorno de Vox, no solo insultan o señalan, sino que imitan a organizaciones supremacistas como el Ku Klux Klan. Se hace un llamamiento a la "defensa del pueblo español", se propone la creación de patrullas vecinales armadas con palos y se lanzan amenazas directas:"Hay que mandarlos al hospital", dicen en algunos vídeos.

El tono, el lenguaje y las propuestas extremas tienen todos los elementos de lo que el Código Penal puede considerar delito de odio. Aun así, este tipo de contenido sigue siendo accesible públicamente en redes sociales como X (antes Twitter), Facebook o TikTok. ¿Por qué no se elimina? ¿Por qué sigue circulando?

¿Se puede retirar este contenido?

Sí, se puede. De hecho, debería. Pero hay un matiz: para que las redes sociales estén obligadas a actuar, tiene que haber un aviso previo. Solo cuando una plataforma recibe una notificación –ya sea de la policía, de la Fiscalía o de un simple usuario–, tiene el deber de revisar si el contenido vulnera la ley y, si lo hace, retirarlo.

Es decir, sin esa denuncia previa, no están legalmente obligadas a eliminar nada, aunque el contenido sea claramente delictivo. Algunas plataformas sí lo hacen por iniciativa propia en casos muy concretos, como la pederastia, pero en el caso del discurso de odio no tienen activados sistemas de detección generalizados. Y, lo más importante: no están obligadas a tenerlos.

¿Por qué no se les obliga a detectarlo por sí mismas?

La respuesta está en el origen del diseño legal de internet. Las redes sociales no son consideradas responsables del contenido que se publica en ellas… hasta que tienen conocimiento de que ese contenido es ilegal. Si se les exigiera vigilar y eliminar todo por iniciativa propia, el sistema entero sobre el que se han construido las redes sociales colapsaría. No es que no puedan, es que no quieren, y los gobiernos, de momento, tampoco fuerzan ese cambio, como señala el consultor de estrategia digital, Borja Adsuara.

El sistema FARO: la vigilancia (parcial) que sí existe

Para suplir esta ausencia de control, existen iniciativas como el sistema FARO, del Ministerio de Inclusión. Se trata de un equipo que, mediante algoritmos y supervisión humana, analiza redes sociales en busca de discursos de odio. En el primer semestre de 2025, FARO detectó más de 340.000 mensajes de este tipo. De ellos, notificó 1.607 publicaciones a las plataformas. Solo 498 fueron retiradas.

TikTok destaca como la más efectiva, eliminando casi todo lo que se le notifica. En el lado contrario, YouTube y X apenas retiran contenidos, y cuando lo hacen, no son precisamente rápidas.

Ante esta situación, el Ministerio de Inclusión tiene previsto reunirse con estas plataformas para pedir mayor implicación y agilidad. Pero, de momento, la realidad es que los mensajes de odio siguen visibles. Incluso aquellos que promueven patrullas armadas contra migrantes o imitan las tácticas de grupos supremacistas como el Ku Klux Klan.