TecnoXplora » Internet

SON POCOS Y COBARDES

Desarrollan un algoritmo que caza sin piedad a los 'trolls' de internet

Investigadores de las universidades de Stanford y Cornell han desarrollado una algoritmo capaz de identificar con gran acierto a los 'trolls' que campan a sus anchas por las tres uves dobles.

Conjunto de trols chateando

Conjunto de trols chateando Tristan Schmurr en Flickr CC

Publicidad

En 2008, el autor de la archiconocida tira cómica XKCD, Randall Munroe, publicó una viñeta que muestra a un hombre con sombrero preguntando a una joven sentada ante el ordenador qué está escribiendo. “Un virus”, le contesta ella, y explica con qué objetivo: “Cuando alguien intenta dejar un comentario en YouTube, primero lo lee en voz alta". Si muchos usuarios escucharan las barbaridades que escriben, tal vez se lo pensarían dos veces antes de hacer clic en 'enviar'.

Era una trampa para 'trolls'. Una particularmente ingeniosa que cautivó a los responsables de la plataforma de vídeos más popular del planeta. Semanas más tarde, Matt Cutts, el hombre que se ocupaba en Google de mantener a raya a los usuarios problemáticos, anunció en su blog la implementación del sistema.


Listen to yourself | Matt Cutts

La idea, al parecer, no resultó muy efectiva. Años después la opción ya no se encuentra disponible, y YouTube (a pesar de otros intentos como identificar a los comentaristas a través de su perfil de Google+) sigue siendo uno de los mayores nidos de 'trolls' de las tres uves dobles.

Esto podría cambiar pronto si funciona algo mejor el algoritmo que ha desarrollado un grupo de investigadores de las universidades de Stanford y Cornell, capaz de identificar con una precisión del 80% a los comentaristas irrespetuosos (al menos, claro, a los que escriben en inglés). Precisamente Google está, junto con Disqus, entre las empresas que han contribuido a financiar su estudio.

Para elaborar su herramienta, los autores han estudiado durante 18 meses a los comentaristas más polémicos y antisociales de comunidades como las de la cadena de televisión CNN o la web de videojuegos IGN en busca de señales que hagan saltar las alarmas. ¿Cuál es el retrato robot de un 'troll' según sus conclusiones? Un internauta semianalfabeto que busca bronca y publica con asiduidad, siempre donde pueda haber polémica.

Han llegado a esta conclusión comparando los mensajes de miles de usuarios que fueron 'baneados' (se les prohibió comentar por su comportamiento inapropiado) con los de otros que mostraron conductas normales. Las diferencias encontradas han permitido elaborar un algoritmo que destapa potenciales 'trolls' cuando tan solo han realizado una decena de publicaciones.

Los patrones detectados son en realidad los que cualquiera que pase cuatro o cinco horas diarias en la Red podría haber citado de memoria. Por ejemplo, el agitador medio escribe con faltas de ortografía, manejando el lenguaje con una destreza inferior a la media. Suele, además, concentrar sus esfuerzos en un reducido número de discusiones, aquellas que considera susceptibles de desembocar en un 'flame' (una disputa airada y, por lo general, poco constructiva).

Los investigadores también han descubierto que parte de la culpa recae sobre los responsables de gestionar la web que aloja a los 'trolls'. Según sus conclusiones, la probabilidad de que surjan 'trolls' es mayor en una comunidad intolerante que 'banea' demasiado pronto. “Los usuarios que han sufrido una censura excesiva”, explican, “son más propensos a mostrar un comportamiento antisocial más adelante”.

Además, “mientras las comunidades parecen perdonar rápido al principio (y son relativamente lentas expulsando a los usuarios antisociales), se vuelven menos tolerantes con esos usuarios cuanto más tiempo permanecen en la comunidad”.

Precisamente por estas razones, los autores del estudio todavía no se muestran proclives a utilizar su algoritmo como un cazador que actúe en solitario bloqueando 'trolls', sino más bien como un vigía que dé la voz de alerta cuanto antes para que actúen los moderadores humanos. En caso contrario, se producirían falsos positivos y 'baneos' por infracciones muy leves que “podrían exacerbar el comportamiento antisocial”.

“La injusticia”, concluyen los investigadores, “puede hacer que los usuarios escriban peor”. Por eso es tan difícil combatir a los 'trolls' sin hacerlos aún más fuertes. Al final, también se confirma un viejo dicho de la Red: 'Don't feed the troll': no lo alimentes.

Publicidad