Como todos sabéis, un bot no deja de ser un programa que opera en internet, redes sociales, etc. y que es capaz de reproducir sin descanso una serie de tareas que, si las llevara a cabo un humano, serían absolutamente tediosas. Son estos bots los culpables de muchos mensajes que toman importancia en redes sociales donde sus responsables se encargan de replicarlos miles de veces hasta que los convierten en virales.

Pues bien, como todos sabéis, estos bots han sido utilizados en los últimos años de las más diversas maneras y, muchas veces, con ninguna intención de hacer el bien o sembrar la paz, sino por el contrario, enconar las conversaciones de quienes debaten en redes sociales para promover ciertos discursos. Con eso sobre la mesa, los de Mark Zuckerberg parece que quieren tomar cartas en el asunto y conocer cómo se gesta y evoluciona este fenómeno.

Y desde la red social han concluido que la mejor forma de adentrarse en ese mundo de trols y scammers (estafadores) es crear un Facebook alternativo habitado solo por estos bots, de tal forma que puedan replicar todos los comportamientos que se viven a diario para estudiar cómo evolucionan esas comunidades. Imaginad que metemos en una conversación sana a un trol que tiene el único objetivo de incendiar eso de lo que hablan. ¿Cómo reaccionarían el resto de participantes? ¿Cuál sería su capacidad de dirigir el discurso de todo el grupo?

Evitar abusos, en el objetivo de este plan

Lo primero que hay que decir es que este Facebook oculto no permitirá, en ningún momento, interacciones con el normal que todos visitamos a diario, y es producto de un documento que se ha hecho público y que se llama "Simulación habilitada para la Web", o WES, por su siglas en inglés. Se trata de un proyecto aislado, independiente, y de un tamaño reducido donde los bots serán capaces de dar me gusta a distintas publicaciones, compartir contenidos, acosar, abusar, estafar e incluso aumentar su lista de amigos en la red social.

Algoritmos y robots | Pixabay

Sí, sí, habéis leído bien. Podrán llevar a cabo tanto las tareas habituales de quienes visitan a diario los perfiles de Facebook, como las peores prácticas que podemos encontrar en algunos usuarios. Es precisamente ese punto el que interesa a los de Mark Zuckerberg, comprobar cómo es la cohabitación de todas esas prácticas, así como la reacción y respuesta de esos usuarios robotizados.

La idea es comprobar cómo reacciona cada tipo de bot, que vendrían a representar los diferentes perfiles de usuarios que habitualmente visitan Facebook, ante circunstancias negativas. Por ejemplo, un bot estafador podría contactar con otro potencialmente objetivo, tal y como ocurre en la red social en algunas ocasiones. Esto permitirá a los de Mark Zuckerberg a conocer cómo combatir estas prácticas en la vida real y crear protocolos específicos en cuanto se detecten los primeros indicios de una conducta conflictiva.

Hay que decir que este proyecto WES contempla la posibilidad de que algunos de estos bots tengan acceso, de solo lectura, al Facebook real de ciertos perfiles y siempre a datos que no violen la privacidad, de tal forma que puedan reaccionar de manera realista ante casos reales. Aun así, algunos investigadores advierten de que estos "bots deben aislarse adecuadamente de los usuarios reales para garantizar que la simulación, aunque se ejecute en código de plataforma real, no conduzca a interacciones inesperadas entre bots y usuarios reales". Veremos cómo evoluciona este proyecto y si de él se obtienen resultados que puedan ayudar a mejorar el ambiente dentro de la red social.