La locura por la IA está haciendo que compañías como Intel y AMD hayan tenido que adaptar el diseño de sus procesadores para implementar un nuevo elemento, que hasta ahora era exclusivo de los SoCs para dispositivos móviles, la unidad de procesamiento neural. Esta está especializada en trabajos de IA, inferencia y aprendizaje profundo, y tiene un consumo inferior comparado con una CPU o GPU equivalente en potencia.
Para poder implementar una NPU en los Intel Meteor Lake el gigante del chip tuvo que dedicar una parte importante del espacio disponible en la pastilla de silicio del SoC. Estos procesadores tienen cuatro chips conectados: CPU, GPU, IO y SoC, y la NPU es uno de los elementos más importantes del bloque SoC.
AMD ha implementado la NPU en sus APUs Ryzen 7000 y 8000. Este componente también ocupa una parte importante del silicio, y esto impide que AMD pueda aprovecharlo para incluir otros elementos, o para hacer cambios que puedan mejorar el rendimiento CPU o GPU de sus APUs. Lo mismo sucede con Intel, que al dedicar más espacio a la APU tiene menos hueco en silicio para otras cosas.
Ambas compañías van a integrar NPUs cada vez más potentes, y esto va a hacer que estas tengan una presencia cada vez más importante en el silicio de los procesadores y APUs en los que se integran, reduciendo y limitando el espacio disponible y probablemente complicando los avances y las mejoras en CPU y GPU. La IA es el presente y el futuro, así que los grandes creen que esto vale la pena, pero no todos los usuarios piensan igual.
Arrow Lake seguirá los pasos de Meteor Lake, y AMD promete montar una NPU tres veces más potentes en sus APUs Strix Point, que llegarán a los 48 TOPs.
