EL ASISTENTE DE GOOGLE RECIBE LA ORDEN… Y DISPARA

EL ASISTENTE DE GOOGLE RECIBE LA ORDEN… Y DISPARA

Al asistente virtual de Google se le puede enseñar a disparar una pistola

Bastan 30 segundos para ver cómo Google Assistant, conectado mediante un mecanismo a una pistola, recibe una orden y la cumple: dispara.

Google Home
Google Home | Agencias

Pablo G. Bejerano | @pablogbej | Madrid | Actualizado el 01/06/2018 a las 13:52 horas

La automatización tiene una parte ominosa. Más en los últimos años, donde el papel de los drones se ha hecho conocido por los ataques con estos dispositivos. Con la inteligencia artificial en pleno ascenso el debate sobre la exportación de esta tecnología al armamento se enciende.

Los ejércitos, de momento, permanecen ajenos a este debate social. Pero la automatización de la violencia no les pertenece exclusivamente sino que puede traspasar esa burbuja militar para adentrarse en la sociedad civil. Una prueba de ello es un sencillo vídeo de 30 segundos donde se muestra cómo el asistente de Google dispara una pistola.

Se trata de Google Home, el altavoz inteligente de la compañía, que está gobernado por su asistente, el mismo que todos los usuarios de Android llevamos en el móvil. El artista Alexander Reben afirma que ha escogido este dispositivo, pero que podría haber realizado la prueba con otro, como un Amazon Echo, cuyo cerebro es Alexa.

 

El objetivo era mostrar las consecuencias inintencionadas de los avances tecnológicos. El mensaje se lee bien claro en el escueto metraje. Reben despierta al asistente con el clásico “Ok, Google” y a continuación dice “actívate gun”. Un segundo después el rudimentario mecanismo que ha desarrollado el artista aprieta el gatillo y la pistola se dispara.

Se trataba de lanzar una advertencia. Confiamos en la tecnología para resolver todos nuestros problemas, pero, ¿qué pasará si se manipulan para usos que no están pensados? Básicamente es la misma preocupación que surgió tras la presentación de Google Duplex, en la conferencia de desarrolladores de la compañía.

Este software capaz de conversar con una persona prácticamente sin que se sepa que es una inteligencia artificial permite reservar en un restaurante o en una peluquería. Así quedó patente durante el evento. Pero, ¿qué puede ocurrir si esa tecnología se modifica para engañar o estafar? Ahora las estafas telefónicas tienen que gestarse por una persona y la capacidad de hacerlo viene limitada por el número de gente dispuesta a hacerlo. Pero un software se puede replicar masivamente.

No es difícil imaginar qué tropelías se pueden cometer si existe la capacidad de dictarle órdenes a un arma de forma remota. Y, sobre todo, si esa capacidad está disponible para cualquiera. Aunque, evidentemente, la raíz del problema no es la inteligencia artificial sino el que esta pueda llegar a conectar con un arma.

Más noticias

Los mas vistos

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.