El último día de METAFUTURO tiene como elemento central la comunicación y, en el futuro de la misma, las redes sociales tienen un papel fundamental. Y de ello trató Frances Haugen, ingeniera y científica de datos que filtró los malos actos de Facebook y su consciencia de que con su algoritmo estaban favoreciendo la polarización y el extremismo político.

No obstante, Haugen decidió comenzar su intervención hablando de un hecho histórico y pionero en la historia de Internet: la ley de servicios digitales. Esta es la primera vez que se regulará contenido en Internet y es una decisión tomada en Europa, algo que para la estadounidense marcará el inicio de un nuevo futuro.

"El año pasado sucedió algo histórico en Europa. Se aprobó una ley con la que podremos decir que el futuro empezó ese día: la ley de servicios digitales. Por primera vez a la gente se le permite hacer preguntas sobre redes sociales y exigir respuestas. Una persona espera que se le permita tener su propia opinión y que pueda reajustar las cosas cuando no funcionan, pero así no son las redes sociales hasta ahora", explicó.

"¿Por qué es tan importante esta ley? Esta ley dice que las plataformas están trabajando detrás de una cortina porque cada persona trabaja en una versión distinta. Cuando la gente tiene preocupaciones, son muy buenos en decir que lo que ven no es real. Con esta nueva ley, por primera vez tenemos derecho a saber qué juicios conocen las plataformas están causando y deben responder a las preguntas", añadió.

La importancia de esta ley la resaltó con un ejemplo ocurrido recientemente en Australia, donde la desinformación en Facebook alteró la opinión pública de un referéndum a favor de los indígenas en el país oceánico: "Vengo desde Australia, donde el sábado tuvieron un referéndum sobre reconocer el derecho de los indígenas. Pues desde hace tres meses surgió de la nada un discurso de odio y desinformación. Uno de los investigadores se fijó que mucha de las personas que hacían los posts venían de Estados Unidos".

"¿Por qué les importaba? Estados Unidos tiene muchos enfrentamientos y eso salpica a otros países. Y Facebook no tenía a nadie vigilando estas interferencias extranjeras. Los grupos indígenas suplicaron por la paridad durante meses y pidieron quitar esos posts y solo hubo un comunicado al lunes siguiente de las votaciones. Si la ley que está en Europa hubiera estado en Estados Unidos o Australia, se podrían haber pedido los datos para poder intervenir", aseguró.

La nula acción de Facebook en estos temas llevó a Haugen a tomar la decisión de abandonar la compañía y desveló en METAFUTURO cómo ocurrió: "Me decían en el trabajo una cosa, pero yo pensaba otra. Y preguntaba a mis padres si era yo la que estaba loca porque eso no tenía sentido. En diciembre de 2020, Facebook anunció el desmantelamiento de la parte de la empresa que se encargaba de garantizar que era un lugar seguro. Yo ya sabía que tenía que hacer algo, solo que no sabía cómo".

"Yo sentía que Facebook me había robado mi futuro. Dentro de la empresa solo hay 50 personas que saben cómo funciona la empresa. Yo quería no sentirme responsable de la violencia de las redes sociales, quería dormir tranquila los próximos 20 años. Entonces un día miré mis mensajes de LinkedIn y vi un mensaje de un periodista del Wall Street Journal. Tuvimos una larga charla en un bosque de San Francisco sin teléfonos ni nada", completó el relato.

Esta revelación si afectó a la red social, ya que había habido intentos previos de demostrar lo que Haugen sí pudo con pruebas: "Con mi revelación, vimos que había de todo. Facebook sabía que sus algoritmos estaban acelerando la polarización y el extremismo político. Algún activista o gobierno ya decía esto, pero Facebook sabía que no lo podían demostrar. La clave de mi revelación fue descubrir que Facebook sabía de esos problemas y seguía diciéndole al público que no lo eran".

Sin embargo, cada red social depende del gobierno del país donde se creó. Y, en el caso de Facebook, es Estados Unidos. Por ello, Haugen explicó que tras su revelación, la empresa centró sus esfuerzos en desmentirlo en inglés ya que debían tener 'la casa ordenada' allí: "Cuando yo mostré documentos en 2021, Facebook se gastó el 87% del presupuesto operativo en desinformación en inglés cuando solo el 8-9% que utilizan la plataforma hablan inglés. Lo hacen porque saben que tienen que mantener el orden en Estados Unidos".

Haugen asegura que vio cambios positivos en Facebook tras su revelación, pero la compra de Twitter por parte de Elon Musk volvió a cambiar el rumbo: "El año después de que yo saqué la información, mucho cambió en Facebook. Duplicaron su gasto en seguridad. Poco después, Elon Musk compró Twitter despidiendo a la mitad de sus empleados y luego otro 25% dimitió, entre ellos muchos encargados de la seguridad. Y no pasó nada. Mark Zuckerberg dijo que Musk había demostrado que se puede quitar la tirita sin consecuencias y él despidió a más gente todavía".

El problema que señala Haugen es que no hay penalización para las malas prácticas de algunas empresas tecnológicas. Eso sí, no todas: "Una de las cosas que desvelé es la idea de que si Facebook ha podido hacer lo que ha hecho es que no había forma de hacerle responsable. Hay empresas que sí lo son. Los creadores de ChatGPT esperaron meses para hacer investigaciones sobre seguridad y les penaliza no ir tan rápido como podrían".

No obstante, al mismo tiempo señaló que no todas tienen esa responsabilidad, como la propia compañía estadounidense: "Facebook podría despedir a su equipo de seguridad en IA y lanzar un modelo sin consecuencias. En las redes sociales necesitamos transparencia. Deberíamos tener la posibilidad que la sociedad les puedan hacer preguntas".

"Algunas compañías como Facebook han tomado decisiones muy irresponsables. No tuvieron una buena seguridad. Hay que pasar a la acción y comprobar que las redes sociales son transparentes y seguras", concluyó.