SE RETRANSMITIÓ EN DIRECTO

SE RETRANSMITIÓ EN DIRECTO

Facebook Live: polémica tras el atentado en Nueva Zelanda

Tras la masacre, en la que han muerto medio centenar de personas, la aplicación de vídeo en vivo de Facebook vuelve a estar envuelta en controversia. En el pasado se han dado casos de suicidios difundidos en directo.

laSexta.com | Madrid | Actualizado a

Facebook
Facebook | Agencias

Al menos 49 personas han muerto este viernes después de que cuatro individuos irrumpieran en dos mezquitas de la ciudad de Christchurch, en Nueva Zelanda, y dispararon indiscriminadamente contra los fieles.

Uno de los terroristas retransmitió el mortal ataque en directo a través de Facebook Live, la herramienta de esta red social que permite publicar contenido de vídeo en vivo. Durante 17 minutos, Brenton Tarrant se grabó con una GoPro mientras disparaba a bocajarro contra la congregación. Al final del estremecedor vídeo, se le escuchaba reír y cantar mientras huía.

El caso ha reavivado la polémica en torno a Facebook Live, una aplicación que ya ha sido objeto de críticas en el pasado. Y es que en los últimos tiempos la red social ha asistido a una proliferación de los casos de personas que se suicidan y lo retransmiten en directo utilizando la función Live.

Las directrices que incluye Facebook en su guía de uso de la herramienta son escuetas. En principio, la plataforma se limita a indicar a los usuarios que, como con el resto de contenidos que se suben a la red social, pueden reportar el contenido inapropiado que visualicen a través de la herramienta.

De acuerdo con la plataforma, una vez recibido el aviso, el equipo de Facebook valora si el contenido infringe o no la normativa y, en su caso, lo retira. Una solución que no satisface a muchos, puesto que la reacción de los administradores y, en su caso, la eliminación del contenido, son un proceso que puede llevar cierto tiempo.

Medidas de prevención

Aunque, desde el año 2011, Facebook cuenta con un botón específico para reportar contenido sobre suicidio, ante la alarmante tendencia de muertes inducidas en directo, especialmente entre los adolescentes, en 2017 anunció que introduciría nuevas mejoras. Entre estas medidas se encontraba la contratación de al menos 3.000 nuevos empleados para detectar este tipo de vídeos con más rapidez.

Según explicaba el fundador de Facebook, Mark Zuckerberg, en mayo de ese año, las nuevas incorporaciones se encargarían de revisar los millones de informes que se reciben semanalmente sobre posible contenido peligroso o que infringe las normas comunitarias.

"Hemos visto gente que se hace daño a sí misma y a otros en Facebook o en directo o en un vídeo publicado más tarde. Es desgarrador y he estado reflexionando acerca de cómo podemos hacerlo mejor", declaró entonces el CEO de la compañía, que también adelantó que su equipo estaba construyendo "mejores herramientas para mantener a salvo" a los usuarios.

Unos meses después, la compañía anunció el desarrollo de un algoritmo que detecta posibles conductas suicidas en los contenidos publicados. Esta herramienta de inteligencia artificial busca patrones en las publicaciones y vídeos en directo que muestren indicios de conducta suicida, lo cual permitiría al personal de Facebook ayudar a la persona o avisar a las autoridades más rápidamente.

Conflicto ético

Según la red social, el software utiliza comentarios como "¿estás bien?" para identificar posibles conductas suicidas o de autolesión. Cuando un usuario reporta un contenido de riesgo o el sistema de inteligencia artificial lo detecta, la compañía lo revisa y, si considera que se precisa una intervención inmediata, avisa a la Policía.

Sin embargo, el uso de este algoritmo preocupa a algunos especialistas. El mes pasado, expertos en Salud Pública alertaron de que la compañía debería ser más transparente acerca de cómo monitoriza las publicaciones en busca de indicios de que existe riesgo de suicidio e incluir un consentimiento informado de que se lleva a cabo este rastreo.

En un artículo publicado en 'Annals of Internal Medicine', los doctores Ian Barnett y John Torous estiman que el usuario medio de Facebook desconoce que se le está realizando este seguimiento, y sostienen que el esfuerzo de la red social para prevenir los suicidios debe seguir los mismos principios éticos que la investigación clínica.

Al menos 49 muertos en un atentado contra dos mezquitas en Christchurch, Nueva Zelanda

El ataque terrorista en Nueva Zelanda deja además 48 personas heridas, incluidos niños, que están siendo atendidas por heridas de bala.

Seguro que te interesa

Los mas vistos

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.