TecnoXplora » Móviles

USA LA TECNOLOGÍA RADAR QUE RASTREA LOS AVIONES

Google quiere que controles el móvil o la tableta con el chasquido de tus dedos

Los investigadores de Google trabajan en una tecnología que haría que con un simple chasquido de tus dedos –o gesto similar- apagaras o encendieras tu móvil, bajaras o subieras el volumen de la radio o cambiaras de pantalla en tu tableta. Funciona así.

Imagen no disponible

Imagen no disponible Atresmedia

Publicidad

“La mano es la mejor conexión que controla un dispositivo. Nuestros dedos son extremadamente precisos y rápidos”, explica en un vídeo Ivan Popyrev, fundador del proyecto Soli, en Google ATAP.

El investigador coordina este proyecto que trata de reconocer con ondas de radiofrecuencia cualquier gesto de nuestros dedos y convertirlo en un comando. La tecnología en sí usa los radares con los que, por ejemplo, se controlan los aviones en los aeropuertos o los satélites de comunicaciones.

Proyecto Soli de Google

El sensor radar en sí, en el que están trabajando, detecta que nos estamos frotando el dedo índice con el pulgar, si nos tocamos un nudillo o el mencionado chasquido. Cualquiera de estos gestos con los dedos se traduce una orden reconocible para cualquier dispositivo, como cambiar de emisora en una radio, pasar de pantalla en nuestro smartwatch, tableta o móvil.

Proyecto Soli de Google

“Usamos la radiofrecuencia de los radares para rastrear la mano humana y registrar así sus micromovimientos”, confirma Popyrev.

El prototipo de sensor radar de Google mide dos centímetros cuadrados y puede detectar movimientos de las manos con un radio de acción que va desde los centímetros del dispositivo hasta cinco metros de distancia.

Proyecto Soli de Google

No en vano, esta tecnología convertiría a nuestros dedos en un todo en uno que uniera mando a distancia, interruptor, joystick o ratón. De hecho, los investigadores de Google la tienen en mente para dispositivos de pantallas pequeñas, de uso antipático si tienes los dedos gordos.

Proyecto Soli de Google

Así no solo sería útil para dar órdenes en remoto a los smartwatches, sino también para integrarlo en tejidos de ropa inteligente -los denominados wearables-, sin cables ni pantallas.

Si Google logra trasladar este concepto de laboratorio al usuario final, no sería descabellado que tengamos que aprender un nuevo lenguaje de signos para controlar nuestros teléfonos y demás dispositivos inteligentes.

Proyecto Soli de Google

Ya lo hicimos cuando Steve Jobs le ordenó a sus ingenieros que quería tabletas sin punteros, y que fuera el dedo quien diera la orden tocando la pantalla, móviles incluidos, como aquel pionero iPhone.

Publicidad