Noticias3D
Registrarme | Recuperar password
  • Inicio(current)
  • Noticias
    • Últimas noticias
    • MÁs leÍdas
    • MÁs comentadas
    • Envia una noticia
  • Articulos
    • Todos
    • Placas base
    • Tarjetas grÁficas
    • Almacenamiento
    • F.AlimentaciÓn
    • Cajas de ordenador
    • Audio y vÍdeo
    • Gaming
    • PortÁtiles
    • GuÍas y taller
    • Memoria
    • Monitores
  • Tags
  • Drivers
  • Foro
×

Google

CPU e IA, ¿cuándo se beneficiarán los procesadores de la inteligencia artificial?

5 de agosto, 2025 |
David |
Comentarios: 0 |
DigitalFoundry

La IA ha sido fundamental para poder conseguir mejoras de rendimiento muy importantes en las GPUs durante las últimas generaciones. Los aumentos de potencia entre generaciones se han ido reduciendo, y sin la utilización de hardware especial, como núcleos para trazado de rayos y núcleos tensor, la evolución de las tarjetas gráficas habría sido mucho menos impactante.

En el mundo de los procesadores, ¿cuándo veremos algo parecido, cuándo se beneficiarán las CPUs de la inteligencia artificial para mejorar su rendimiento? Esa es la pregunta que han hecho a Digital Foundry, y el canal ha contestado de una manera directa.

Ya tenemos un beneficio en cierta manera como dice Digital Foundry, y es la generación de fotogramas, una tecnología que permite superar los límites del procesador generando fotogramas de forma independiente que no dependen de este componente.

También reconocen que la evolución de las CPUs se ha estancado en parte, y que los juegos tampoco pueden utilizar muchos núcleos para mejorar el rendimiento sin que aumente significativamente la latencia. Señalan que precisamente esto es lo que ocurre en The Witcher 4 para que funcione a 60 FPS, que se aprovechan más núcleos pero se aumenta la latencia.

Están preocupados por el escalado de la CPU en juegos, porque puede que sigamos estancados en ocho núcleos y que todo se limite al IPC y a meter mucha caché L3. Creen que necesitamos mejoras en los desarrollos y en los kits tecnológicos que se utilizan en juegos, y que hay un problema de desarrollo que impide aprovechar de verdad CPUs con muchos núcleos.

No es una buena idea utilizar la NPU de una CPU para mejorar el rendimiento de la CPU porque implica un extra de trabajo que puede producir retrasos (datos a la NPU, luego datos de vuelta a la CPU). No ven mucho potencial, y creen que la GPU seguirá siendo la gran beneficiada de la IA.

Tags: Procesadores

Ver comentarios: 0

Anterior
Siguiente
Últimas noticias
  • Controladores Intel Arc 32.0.101.8509 WHQL: para XeSS 3 MFG y un par de bugs
  • Steam beta introduce una mejora muy importante en los comentarios de los jugadores
  • Intel XeSS 3 Multi Frame Generation a prueba
  • Primer tráiler con acción real de Control Resonant
  • MSI lanza su propia "GeForce RTX 5090 Ti" con un TGP de 1.000 vatios
  • Metal Gear Solid Master Collection Vol. 2 llega a PC: requisitos
  • Intel Nova Lake-S tiene un PL1 de 150 vatios, y un PL4 de 854 vatios
  • Corsair cambia la caja de su DDR5 Vengeance como respuesta a las crecientes estafas
  • GPU-Z v2.69.0 ya disponible: para el soporte de nuevas gráficas y varias correcciones
  • No, la Steam Deck no se ha agotado, sigue estando disponible
Top noticias
  • Red Dead Redemption 2 recibe un mod de texturas HD que pesa 53 GB, pero es impresionante
  • Resident Evil 4 Remake ya no tiene Denuvo, Capcom lo ha retirado
  • Así de bien luce Red Dead Redemption 2 en 8K con DLSS 4.5 y más de 100 mods gráficos
  • Pruebas de rendimiento muestran que el Ryzen 7 9850X3D rinde casi igual que el Ryzen 7 9800X3D
  • La GeForce RTX 5060 Ti ha subido tanto de precio que ya cuesta más que la GeForce RTX 5070
  • Intel Core i7-4790K con DDR3 a prueba en 2026, rinde mejor de lo esperado
  • Requisitos de Forza Horizon 6 para PC
  • Microsoft reconoce el desastre y se compromete a arreglar Windows 11
Noticias 3D
  • articulos
  • drivers
  • foro
  • tags
  • contacto
  • publicidad
© Copyright 2000 - 2026 | nFinite9000 S.L. | Todos los derechos reservados | Aviso legal
Comentario

Sed ut perspiciatis