Este año 2019 parece que va a ser el año de las NPU, o lo que es lo mismo, de los aceleradores de IA mediante hardware. En los smartphones, los SoCs o Systems On a Chip, ya cuentan con la CPU, la GPU y el DSP o procesador digital de la señal, así como del ISP o procesador de imagen. Pero la NPU lleva camino de convertirse en un elemento habitual en los diseños de Huawei HiSilicon, Qualcomm, MediaTek o Samsung, sin olvidar a Apple.
MediaTek en sus procesadores Helio P90 ya introdujo aceleración para IA, mientras que Huawei introdujo la NPU en el Kirin 970 y después en el Kirin 980, esta vez por partida doble. Qualcomm ha introducido la NPU en los Snapdragon 855, ahorrando energía y acelerando los algoritmos de IA. Entre MediaTek, Huawei HiSilicon y Qualcomm, suman el 70% de la cuota de mercado de chipsets móviles, por lo que es fácil pensar que en los meses que vienen veremos más usos de la NPU.
De todos modos, es necesario que los entornos de desarrollo cuenten con las APIs necesarias para redirigir los cálculos de IA hacia la NPU en vez de hacia la GPU o la CPU. Sin esta integración, y programadores que escriban código pensando en la NPU, no sirve de mucho que tengamos una NPU en nuestro dispositivo móvil. A día de hoy, muchas de las tareas que tendrían que ejecutarse en la NPU se siguen ejecutando en la GPU o en los cores de la CPU.
