La computación de IA en el edge vive un momento de aceleración, pero pocos dispositivos han sorprendido tanto como el nuevo Tiiny AI Pocket Lab, un superordenador del tamaño de un móvil que promete ejecutar modelos de hasta 120.000 millones de parámetros sin depender de la nube. Su propuesta desafía los límites de la informática portátil mediante un diseño extremadamente compacto y una arquitectura optimizada para cargas de IA a gran escala.
 700 640.jpg)
Imagen: Tiny AI
Arquitectura ARM v9.2 y un motor híbrido CPU + NPU capaz de 190 TOPS
A diferencia de otros dispositivos de IA orientados al consumidor —muchos limitados a NPUs de baja potencia y modelos ligeros— el Pocket Lab integra:
CPU ARMv9.2 de 12 núcleos
Módulo heterogéneo de IA (SoC + dNPU)
≈190 TOPS de potencia computacional
80 GB de memoria LPDDR5X
Almacenamiento interno de 1 TB SSD
Este despliegue de memoria es clave: permite cargar modelos de más de 100B parámetros de forma íntegramente local, algo que normalmente requieren estaciones de trabajo o servidores equipados con GPUs profesionales.
Un superordenador en 300 gramos
Con dimensiones de 14,2 × 8 × 2,53 cm y un peso inferior a los 300 gramos, el Pocket Lab redefine el concepto de "computación de bolsillo". Su TDP de 30 W y consumo típico de 65 W muestran que, pese a su tamaño, opera en una categoría muy distinta a la de otros dispositivos portables.
La compañía apunta que este rendimiento permite ejecutar modelos diseñados para razonamiento avanzado, análisis multietapa y comprensión contextual profunda.
 700 640.jpg)
Imagen: Tiny AI
Compatibilidad con los principales LLMs open-source
Tiiny AI asegura soporte directo para modelos procedentes de:
GPT-OSS
Llama
Qwen
DeepSeek
Mistral
Phi
La gestión y despliegue de modelos se ofrece mediante un sistema de “one-click deployment”, orientado tanto a desarrolladores como a investigadores que buscan probar modelos localmente sin depender del cloud.
Tecnologías clave: TurboSparse y PowerInfer
Tiiny AI acompaña su hardware con dos tecnologías propietarias destinadas a optimizar la inferencia:
TurboSparse
Un método de activación dispersa a nivel de neurona que incrementa significativamente la eficiencia de ejecución sin degradar la calidad del modelo. Su objetivo es reducir el coste computacional manteniendo la inteligencia completa del modelo.
PowerInfer
Un motor de inferencia heterogénea, open source y con más de 8.000 estrellas en GitHub, que distribuye dinámicamente la carga de trabajo entre CPU y NPU.
Permite lograr rendimiento de clase servidor con solo una fracción del consumo energético.
En conjunto, estas técnicas habilitan algo que hasta ahora requería hardware profesional de miles de dólares: ejecutar LLMs gigantes en un dispositivo de bolsillo.
Funcionamiento totalmente offline
Una de sus características más destacadas es la operación completamente desconectada, algo esencial para entornos sensibles, investigación privada o despliegues donde la latencia y la seguridad son críticas.
Presentación oficial en CES 2026
Tiiny AI mostrará públicamente el Pocket Lab durante CES 2026, aunque por ahora no se han comunicado detalles sobre precio o disponibilidad comercial. Si su propuesta resulta viable a gran escala, podría abrir una nueva categoría de supercomputación personal.