Un atacante podría servirse de algo parecido para hacer que tu móvil se ponga su servicio

Un atacante podría servirse de algo parecido para hacer que tu móvil se ponga su servicio

Google descubre cómo se engaña a una inteligencia artificial para tomar el control de tu móvil

Investigadores de Google han demostrado que resulta relativamente sencillo engañar a una inteligencia artificial (IA), como los asistentes virtuales de nuestros smartphones, para que se ponga a su servicio. Una foto alterada podría no solo conseguir que la IA se equivoque, sino contener instrucciones para que realice una tarea diferente a aquella para la que fue programada. En el futuro, un atacante podría servirse de algo parecido para hacer que tu móvil se ponga su servicio.

Teléfono móvil
Teléfono móvil | Pixabay

David G. Ortiz | @gomezortiz | Madrid | 09/08/2018

El miedo a los robots que han reconocido abiertamente desde iconos de la tecnología como Elon Musk hasta científicos de renombre como el fallecido Stephen Hawking se suele relacionar con las armas autónomas o las inteligencias artificiales que escapan a nuestro control y se vuelven en contra de la raza humana, al más puro estilo Hollywood. Sin embargo, puede ser que los peligros más temibles de la IA, por ser los más inmediatos y cercanos, sean los que ya están ahí sin que la mayoría nos hayamos dado cuenta.

Los algoritmos de inteligencia artificial más comunes y que más impacto tienen en tu día a día son aquellos que influyen (o incluso determinan) cosas tan cotidianas como la música que escuchas, la ropa que compras o las noticias que lees. Sabemos por Facebook y el escándalo de Cambridge Analytica que hasta te pueden estar manipulando para cambiar el partido al que votas, pero ni siquiera eso es lo que más debería preocuparte. Lo que de verdad te debería alarmar es lo sencillo que resulta engañar a esos ‘cerebros’ artificiales que están detrás de infinidad de cosas que haces con tu ‘smartphone’ a diario.

Científicos de Google Brain acaban de demostrar que incluso es posible hacer que un algoritmo concebido para reconocer imágenes (saber si lo que sale en una foto es un perro o un gato, por ejemplo) se ponga a realizar otras tareas para un atacante que consiga reprogramar sus funciones mediante una simple foto modificada.

Añadiendo una capa imperceptible para los humanos y diseñada para confundir al algoritmo, la imagen de un oso panda que tanto las personas como la máquina solían reconocer como tal, de repente ha pasado a ser un gibón (o cualquier otro animal) para la inteligencia artificial.

Y eso no es todo: con técnicas como la utilizada por los investigadores de Google, la foto alterada podría no solo conseguir que la IA se equivoque, sino contener instrucciones para que realice una tarea diferente a aquella para la que fue programada. En el futuro, un atacante podría servirse de algo parecido para hacer que tu ‘smartphone’ se ponga su servicio.

¿Cómo se engaña a una máquina?

Todo parte de la forma en que se entrenan estos algoritmos: el famoso ‘machine learning’ o aprendizaje automático. Para que sean capaces de reconocer una manzana verde, se le proporcionan a la máquina miles o millones de imágenes de frutas y otros elementos que le sirvan de modelo.

Así, analizando ejemplos y buscando patrones, la inteligencia artificial acabará por comprender qué hace que una manzana sea una manzana y no otra cosa, o qué píxeles determinan que es verde y no roja o amarilla. Si quieres que aprenda a cocinar, ponle vídeos de recetas de YouTube hasta que se convierta en un Top Chef.

Para engañarla, lo que se utilizan son los llamados ‘adversarial examples’ (ejemplos contradictorios), que están diseñados para causar alguna confusión, ya sea genérica (simplemente, conseguir que no funcione o lo haga mal) o intencionada (forzar un determinado error, como que vea exactamente lo que quiere el atacante).

En el caso de los investigadores de Google, no solo se logra el engaño y se obtiene un resultado concreto, sino que se llega a ‘secuestrar’ la máquina para que lleve a cabo otras tareas.

La efectividad de esta práctica ya se ha puesto a prueba en otras ocasiones y con diferentes objetivos, como engañar a un coche autónomo haciéndole creer que hay una señal cualquiera es un stop colocándole una pegatina, y forzando así que se detenga, o para engañar al algoritmo de una aseguradora que detecta daños en fotos de vehículos para que magnifique su evaluación después de un accidente.

También se han usado los ejemplos contradictorios para hacer que un algoritmo entrenado para destacar en un videojuego (como el Pong o el Seaquest) pierda eficacia.

 

“Muchos algoritmos modernos se pueden romper de formas sorprendentes”, resumen los investigadores de Open AI, la organización de inteligencia artificial que promueve el multimillonario Elon Musk. “Estos fallos del ‘machine learning’ demuestran que incluso los más simples algoritmos pueden comportarse de manera muy distinta a la que pretendían sus diseñadores”. Con todos los peligros que eso puede entrañar.

“Diversos fines despreciables pueden alcanzarse si los algoritmos de ‘machine learning’ pueden ser reprogramados”, destacan desde Google Brain. “Por ejemplo, a medida que los teléfonos cada vez actúan más como asistentes basados en inteligencia artificial, la viabilidad de reprogramar el móvil de alguien exponiéndolo a una imagen o un archivo de audio contradictorio se incrementa”.

Y el peligro de ese tipo de intrusión o secuestros de nuestros smartphones también irá en aumento cuantas más funciones sean capaces de realizar. Ahora tienen acceso a nuestro email, nuestros contactos o nuestro calendario, pero pronto lo tendrán también a nuestra cuenta del banco o la tarjeta de crédito. Nos preocupa que los robots nos quiten el trabajo o que las armas autónomas se vuelvan un problema, pero estamos olvidando que la mayor amenaza de todas puede ser la que llevamos cada día en el bolsillo.

Más noticias

Los mas vistos

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.