deepfakes

deepfakes

Así es la herramienta con la que pueden poner tu cara en una peli porno sin que te enteres

Utilizar una herramienta para hacer un falso vídeo pornográfico es tan sencillo como utilizar un filtro de Snapchat y, lamentablemente, se está poniendo cada vez más de moda, afectando a celebrities de todo tipo.

Gal Gadot, una de las afectadas por los vídeos DeepFake
Gal Gadot, una de las afectadas por los vídeos DeepFake | Agencias

Hasta hace poco tiempo, hacer un vídeo ‘fake’ cambiando la cara del protagonista del mismo era algo bastante complicado al alcance de usuarios con un perfil bastante profesional.

El año pasado unos investigadores desarrollaron un ‘software de edición para poder manipular el audio de un vídeo y poner las palabras de una persona en boca de otra con bastante credibilidad.

La moda de intercambiar las caras viene desde hace tiempo con uno de los filtros más famosos de Snapchat, pero si bien puede ser gracioso cambiar tu cara por la de un famoso lo que no tiene ninguna gracia es que se pueda usar tu rostro para tunear un vídeo con contenido explícito.

En las últimas semanas han circulado por todo tipo de páginas vídeos pornográficos trucados que han usado rostros de famosas como Natalie Portman, Scarlett Johansson o Emma Watson con contenido X. Se genera a partir de multitud de fotogramas con una polémica aplicación llamada Fake App.

La sofisticación de la herramienta no es lo más preocupante, lo que más preocupa es que puede ser utilizada fácilmente por cualquiera y lo que hasta ahora le ha ocurrido a celebridades podría pasar a cualquiera de nosotros en manos de alguien que quiere hacernos daño.

 

El problema también es que es complicado detener cuando algo se viraliza rápidamente y son muchas las páginas que están distribuyendo esos contenidos ofensivos y manipulados.

El debate sobre la falta de ética por realizar y difundir estos contenidos se matiza porque existen opiniones que dicen que al ser contenido falso no es tan grave como, por ejemplo, cuando se han difundido imágenes privadas fruto de un ‘hackeo’. No obstante, la mayoría ve esta horrible moda como una pesadilla propia de ‘Black Mirror’.

El programa, según la ‘BBC’, tiene más de cien mil descargas y lo relevante es que funciona con una inteligencia artificial con aprendizaje automático. El proceso que en otro momento podría llevar días de trabajo con herramientas profesionales ahora se simplifica en tres pasos. Tener varias fotos de una persona, un vídeo porno para manipular y esperar durante muchas horas (incluso casi dos días en algunos casos).

 

Las búsquedas de vídeos de corte ‘deepfake’, tal y como se les conoce, está experimentando un alza en las últimas semanas, sobre todo en países asiáticos como Corea del Sur. Muchas webs ya están tomando medidas contra contenidos catalogados de esta manera, mientras que en foros de Reddit algunos de estos vídeos están subiendo como la espuma.

Javier Pérez Rey | @javierperezrey | Madrid | Actualizado el 07/02/2018 a las 17:48 horas

Los mas vistos

Becas Red Leonardo

Haz realidad tu proyecto científico o cultural

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.