Este año 2020 pasará a la historia por ser uno de los más complicados del último siglo, aquel en el que media Humanidad quedó confinada en sus casas por culpa de un virus, y porque en los meses de mayo y junio se produjo el particular #MeToo de la comunidad afroamericana a través de un #BlackLivesMatter que no parece dispuesto a seguir tolerando ciertos desmanes policiales.

En ambos casos, las redes sociales tuvieron un papel importantísimo al convertirse en árbitros con poder de veto sobre todos aquellos mensajes que se podían catalogar como dentro de lo que se ha dado en llamar el "discurso del odio". Ahora bien, ¿creéis que lo están consiguiendo plataformas como Google, Facebook (Instagram y WhatsApp), Snapchat, Microsoft o Twitter? Pues al menos en la Unión Europea creen que sí.

Optimismo por los últimos cuatro años

Esa es la sensación que se transmite a través del informe que la Comisión Europea está manejando y que afirma que las empresas tecnológicas están "mejorando la gestión" de los discursos de odio que aparecen todos los días en sus redes sociales. Ese documento forma parte de la quinta evaluación que hace el organismo europeo alrededor del Código de Conducta puesto en marcha en el año 2016 con el fin de erradicar los discursos del odio online.

Aunque se trata de un código que no vincula a las empresas a tomar medidas, sí es un instrumento de autorregulación que busca coordinar en muchos frentes esa batalla contra la intolerancia. El objetivo, tal y como se marca en ese acuerdo suscrito por todas las partes, es trabajar para que no se "ofrezcan oportunidades para que el discurso ilegal de odio online se propague viralmente".

Unión Europea | Photo by Markus Spiskeon Unsplash

Para sustentar esas buenas sensaciones, la Unión Europea ha publicado algunos datos sobre el volumen de contenidos que se han conseguido eliminar, o bloquear, en las distintas plataformas desde el principio de entrada en vigor de este código en 2016. Hace cuatro años, solo el 40% de esos discursos del odio eran neutralizados mientras que en 2018 ese porcentaje ascendió hasta el 81%. Ahora, en este año de la Covid-19 y la pandemia mundial o el asesinato de George Floyd, nos encontramos mucho más cerca del objetivo definitivo al contar con un 90%. Una progresión enorme.

La Unión Europea cree que, a pesar de los buenos datos, que todavía hay mucho trabajo por hacer. Por ejemplo, añadir más transparencia al proceso para que el usuario esté permanentemente informado de por qué algunos contenidos son bloqueados, eliminados o advertidos dentro de la red social. En este punto, destacan el papel de Facebook que, a día de hoy, parece ser la única que informa de "manera sistemática".

Es por eso que, muy posiblemente, la Unión Europea decida legislar para garantizar este último extremo de mantener siempre al usuario en el centro del debate, exponiéndole las ideas con transparencia sobre las decisiones que se toman. Tanto es así que la Comisaria de Justicia, Didier Reynders, afirmó que "insto a las plataformas a cerrar las brechas observadas en las evaluaciones más recientes, en particular en proporcionar retroalimentación a los usuarios y transparencia". Algo que podría provocar que ese código entre empresas tecnológicas que ahora mismo no es vinculante, termine por convertirse en otro de obligado cumplimiento.