ARM ha adoptado una postura un tanto conservadora en lo que a la IA se refiere. Mientras que Apple o Huawei ofrecían aceleradores para IA como la NPU del Huawei Kirin 970, ARM se hacía de rogar en lo que a adoptar una estrategia de Inteligencia Artificial se refiere. Tradicionalmente la IA ha dependido de la nube, pero en la actualidad la tendencia es la de llevar la capacidad de procesamiento, en parte, a los dispositivos, en lo que se ha dado en llamar "edge computing".

Ahora, ARM ha anunciado los progresos de su Proyecto Trillium del que ya habló en febrero, con detalles acerca de su procesador para Machine Learning, también conocido como la neural processing unit o NPU, tal como la denomina Huawei. El Proyecto Trillium aglutina los avances de ARM en el procesamiento de machine learning y operaciones con redes neuronales en su gama de procesadores, ya tenga lugar ese procesamiento en la CPU, la GPU o la NPU.
El objetivo de ARM es hacer que el machine learning se procese en los dispositivos (en el edge), como oposición a su procesamiento en los centros de datos. De este modo, se reduce el ancho de banda necesario para manejar la IA, así como se reduce la latencia. Además, manteniendo los datos en el dispositivo, se mejora la seguridad de los mismos. Los algoritmos de ML son costosos de procesar en los procesadores convencionales por lo que la presencia de un procesador específico para estas tareas mejora notablemente el rendimiento.
La arquitectura de esta NPU es diferente a la de los SOCs tradicionales, por lo que se necesita que las aplicaciones estén programadas contra esta arquitectura usando los SDKs disponibles para ello.