AFECTA A EMPRESAS Y PARTICULARES

Deepfake, una amenaza real que ha llegado para quedarse

El caso de Almendralejo es solo un ejemplo de lo real que pueden ser estas amenazas, que afectan tanto a ciudadanos como a empresas.

Publicidad

Hace unas semanas muchos conocíamos con asombro e incredulidad las noticias que provenían desde Almendralejo, donde varias alumnas se han visto sorprendidas por la existencia de fotos suyas de carácter sexual a las que nunca se prestaron. Y es la realidad, porque el problema es que entre varios alumnos se han dedicado a crear deepfakes, en unos casos más conseguidos que otros, con los que han conseguido no solo culminar una broma de muy mal gusto que puede tener recorrido penal, sino que nos ha dado una bofetada de realidad acerca de lo sencillo que es hoy en día acceder a este tipo de software.

Crónica de una amenaza anunciada

Aunque el deepfake siempre ha sonado a una amenaza lejana, que solo afecta a grandes empresas y altos directivos, nada más lejos de la realidad, porque lamentablemente está mucho más extendida de lo que creemos en los entornos domésticos. Muchos han visto venir poco a poco este tipo de amenazas, alertando del peligro que supone hoy en día que en los centros educativos se publiquen fotos de los menores, que en algunos casos pueden acabar en redes sociales, aunque esas publicaciones siempre se realicen con la mejor intención.

Una deepfake
Una deepfake | Freepik

Al final la presión popular del 99% de progenitores lleva a ceder a muchos padres y madres que no están de acuerdo con la realización de fotos de los pequeños en diversas actividades. Así las fotos terminan en las redes sociales o en círculos cercanos a los centros educativos. Lo que entonces era un temor a qué se podría hacer con esas fotos si llegaban a las manos equivocadas, hoy ya es lamentablemente una amenaza real.

Y ahora nos toca convivir con ella, después de que la actualidad haya convertido al deepfake en una realidad muy incómoda. La existencia de este tipo de aplicaciones, que, con pocos conocimientos técnicos por parte de cualquier persona, también menor en muchos casos, son capaces de realizar modelos humanos sorprendente reales ha convertido a esta tecnología en una bomba de relojería de la que ahora es difícil librarse si no tenemos claro la manera de detenerla.

Formación y concienciación para reducir al mínimo los riesgos

El principal problema al que nos enfrentamos como sociedad con la deepfake es la facilidad con la que se accede a este tipo de software, y por otro lado, lo sencillo que hoy en día es hacerse con fotos de las personas que nos rodean, por la enorme exposición de los menores a las redes sociales y a los dispositivos móviles. Tal y como nos ha contado Chris Briggs, vicepresidente de Identidad de Mitek Systems, tenemos que Combatir la IA con IA.

Esto lógicamente es más sencillo cuando hablamos de entornos empresariales, en los que se pueden invertir buenas sumas de dinero en generar algoritmos y herramientas que puedan neutralizar a la IA, pero cuando hablamos del entorno escolar o doméstico, es mucho más difícil mantener a raya a las herramientas de deepfake. A este respecto, Briggs ha incidido con muy buen criterio en las claves para poder frenar el auge del deepfake.

Según sus palabras Será esencial encontrar una solución con doble foco: por un lado, tecnológico, con sistemas de detección y verificación que faciliten la identificación de estos deepfakes; y, por otro, legal, con propuestas inminentes que persigan y penalicen esta actividad tan peligrosa.

Al final como está ocurriendo en tantos otros aspectos de la IA, la tecnología va por delante de las leyes y de la propia capacidad de la sociedad para ser consciente de sus peligros. Este es un problema que afecta a todos los estratos. Con grandes empresas que pueden verse amenazadas por extorsiones basadas en contenidos visuales y de audio manipulados, o como en el caso de Almendralejo, sembrando el caos en los centros escolares con acciones que algunos podrán entender como una simple chiquillada, pero que en realidad son de una gravedad extrema.

Seguramente sea el momento de que en el entorno educativo comience a formar tanto a docentes, como a padres, madres y alumnos a minimizar los riesgos de ser víctimas de deepfake. Y para ello, lo primero debe ser reducir al mínimo la presencia visual de los menores en las redes, porque es el caldo de cultivo para que este tipo de fraudes proliferen. Sin una imagen que transformar, la IA queda neutralizada.

Esta IA "Deepfake" de Samsung puede crear un clip de vídeo de cualquier persona con una sola foto

TecnoXplora» Internet

Publicidad