La IA ha sido fundamental para poder conseguir mejoras de rendimiento muy importantes en las GPUs durante las últimas generaciones. Los aumentos de potencia entre generaciones se han ido reduciendo, y sin la utilización de hardware especial, como núcleos para trazado de rayos y núcleos tensor, la evolución de las tarjetas gráficas habría sido mucho menos impactante.
En el mundo de los procesadores, ¿cuándo veremos algo parecido, cuándo se beneficiarán las CPUs de la inteligencia artificial para mejorar su rendimiento? Esa es la pregunta que han hecho a Digital Foundry, y el canal ha contestado de una manera directa.
Ya tenemos un beneficio en cierta manera como dice Digital Foundry, y es la generación de fotogramas, una tecnología que permite superar los límites del procesador generando fotogramas de forma independiente que no dependen de este componente.
También reconocen que la evolución de las CPUs se ha estancado en parte, y que los juegos tampoco pueden utilizar muchos núcleos para mejorar el rendimiento sin que aumente significativamente la latencia. Señalan que precisamente esto es lo que ocurre en The Witcher 4 para que funcione a 60 FPS, que se aprovechan más núcleos pero se aumenta la latencia.
Están preocupados por el escalado de la CPU en juegos, porque puede que sigamos estancados en ocho núcleos y que todo se limite al IPC y a meter mucha caché L3. Creen que necesitamos mejoras en los desarrollos y en los kits tecnológicos que se utilizan en juegos, y que hay un problema de desarrollo que impide aprovechar de verdad CPUs con muchos núcleos.
No es una buena idea utilizar la NPU de una CPU para mejorar el rendimiento de la CPU porque implica un extra de trabajo que puede producir retrasos (datos a la NPU, luego datos de vuelta a la CPU). No ven mucho potencial, y creen que la GPU seguirá siendo la gran beneficiada de la IA.