SIN CONEXIÓN A INTERNET
Tener tu propia IA privada ya es posible con este dispositivo que tiene aspecto de Power Bank
Con este dispositivo puedes usar la IA sin conectarte a servidores externos y disfrutando para tí del máximo rendimiento.

Publicidad
Qué decir de la IA y el impacto que ya tiene en nuestras vidas. Es algo omnipresente, y muchos de nosotros ya la hemos naturalizado para las tareas más cotidianas. Obviamente, si hablamos de modelos de lenguaje comunes, como ChatGPT, Gemini, Copilot o Claude, se trata de IA que no son privadas. Esto quiere decir que todas las peticiones que les hacemos salen de nuestros dispositivos, y se ejecutan en la nube, en los servidores de las grandes tecnológicas. El gadget que os traemos hoy se ha diseñado para evitarlo, y que podamos disfrutar de nuestra propia IA totalmente privada.
Así funciona Tiiny AI Pocket Lab
En apariencia tiene el aspecto de una batería externa, de tamaño bastante compacto. Esta nos ofrece un diseño bastante moderno, podríamos incluso describirlo como Cyberpunk. Y para hacernos una idea, su planteamiento consiste en la ejecución independiente de modelos de IA. En lugar de pagar una suscripción mensual para poder utilizarla, nos podemos descargar dentro de este dispositivo un modelo, de los muchos que hay de código abierto, y que están disponibles en este modelo, y ejecutarlo exclusivamente de manera local.
Lo mejor, es que no necesitamos una conexión a Internet para poder ejecutar estos modelos de IA, ya que todo se desarrolla dentro de este dispositivo. Un dispositivo que a pesar de su tamaño, es capaz de mover modelos de hasta 120 mil millones de parámetros, como versiones potentes de Llama 3, Qwen o Mistral. Esto es algo que normalmente requeriría tarjetas gráficas profesionales muy potentes y costosas o servidores en la nube.
Su ficha técnica nos demuestra que es un dispositivo muy solvente, con hasta 80GB de memoria RAM LPDDR5X, que es el componente más importante parap oder cargar los modelos de lenguaje más grandes. Cuenta con almacenamiento de 1TB en forma de SSD, más compacto y rápido. El chip que lo muev todo cuenta con arquitectura ARM y 12 núcleos, obviamente optimizados al extremo para ejecutar modelos de lenguaje de IA.
A pesar del despliegue técnico, este dispositivo tiene un consumo energético moderado, de entre 30W y 65W según la carga de trabajo a la que le sometamos. Si os estáis preguntando cómo funciona, es bastante sencillo, ya que se trata de un dispositivo Plug & Play. Una vez que se conecta al PC mediante el puerto USB tipo C, podemos comenzar a disfrutar de todo su potencial. Actualmente hay hasta 20 modelos de lenguaje de IA.
Los más destacados son Llama de Meta que soporta desde las versiones pequeñas (8B) hasta las más potentes de 70B e incluso para modelos de hasta 120B parámetros usando técnicas de optimización. Mistral & Mixtral que son conocidos por su eficiencia y razonamiento lógico. Qwen de Alibaba, un modelo extremadamente potente en matemáticas y programación.
DeepSeek está especializado en código y razonamiento avanzado. Phi de Microsoft es más pequeño pero muy inteligente para tareas rápidas. O Gemma de Google, su versión abierta. Eso sí, aunque te ahorres las suscripciones, necesitarás tiempo para amortizar la inversión. Ya que este dispositivo se ha estrenado en Kickstarter por unos 1215 euros al cambio como precio de partida. Eso sin contar impuestos adicionales. Las primeras unidades se entregarán a partir de agosto de este año.
Publicidad





