Millones de bots subiendo posts, dándose like e incluso insultándose entre ellos. No los ha puesto ningún ente externo a Mark Zuckerberg. De hecho, ni siquiera están en Facebook: están en WES (Web-Enabled Simulation), una red social paralela con la que Facebook pretende adelantarse al mal comportamiento de los usuarios.

Esta plataforma ficticia utiliza Inteligencia Artificial para entrenar bots y simular "de manera realista" el comportamiento de las personas en Internet. Facebook asegura en un artículo publicado el pasado 23 de julio que, si bien el proyecto "está en etapa de investigación", podría ayudar a "detectar posibles problemas de confiabilidad o integridad antes de que afecten a personas reales".

Lograr que esta interacción artificial se parezca de verdad a las relaciones que tenemos los humanos es una tarea compleja. Como explica la propia red social, el comportamiento de las personas varía con el tiempo, la geografía y el ambiente: "Es difícil anticiparse a todas las formas en las que un individuo o una comunidad entera podrían responder a cambios en su entorno", afirman.

Pese a que los bots imiten las interacciones más complejas del ser humano, hasta el punto de mandarse solicitudes de amistad entre ellos, jamás saldrán de WES. Es una mera cuestión de seguridad: muchos de ellos se han programado para que sean conflictivos y maleducados. "Los bots no pueden interactuar con usuarios reales y su comportamiento no puede tener ningún impacto en estos individuos o en sus experiencias en la plataforma", asegura la red social.

Drogas y venta de armas: la simulación de la 'www' de Facebook

El proyecto WES es el primer peldaño de una mayor recreación que se escapa de los confines de la red social. Facebook también está desarrollando 'WW', un Internet ficticio con el que investigar el comportamiento humano a todos los niveles. Mediante código de la propia plataforma, pretenden crear bots que clonen a los usuarios que hagan búsquedas criminales.

Desde el tráfico de drogas hasta la venta de armas, Facebook puede "ejecutar simulaciones para ver si el bot puede frustrar salvaguardas y violar los estándares de la comunidad", y siguen en el comunicado: "Al hacer esto a escala en WW, podemos identificar patrones estadísticos en los resultados y probar formas de abordar dichos problemas".

Esta investigación permite evitar comportamientos ilegales tanto en buscadores reales como en la propia red social. El mecanismo se basa en componentes de diseño que utilizan la búsqueda computacional en toda la variedad de productos que se ofertan en estos espacios.

"No todas las personas tienen un comportamiento benigno [en las redes sociales], el comportamiento de todos evolucionará y se adaptará según cómo responda la plataforma y lo que hagan las demás personas". Según Facebook, algunos de estos comportamientos son imposibles de predecir, pero con WES y su simulador web podrán crearse "plataformas más seguras, más estables, más robustas y con mejor rendimiento". Un conocimiento que además será compartido con el mundo académico, con el fin de mejorar las interacciones de todos los usuarios y rebajar el tono de muchas conversaciones que, lejos de entablar relaciones sanas, pueden acabar en verdaderas batallas campales.