God of War llegó el pasado 14 de enero así que este artículo llega con cierto retraso y su redactor en TechPowerUp, W1zzard, lo reconoce públicamente argumentando que sus vacaciones de invierno y los NDAs de las RX 6500 XT y RTX 3050 le impidieron llegar a su cita habitual en el plazo deseado. Sin embargo los análisis de rendimiento de TPU nos resultan muy ricos a nivel de detalle y creemos que vale la pena comentarlo. Ciertamente un punto a mejorar sería añadir el análisis del apartado de procesadores para los juegos pero ahí ya conseguimos información gracias a DSOGaming.
God of War llegó a Playstation 4 hace casi cuatro años y este pasado enero debutó en PC con muy buena acogida, lo que indica que Sony tiene bastantes incentivos para seguir realizando lanzamientos importantes de juegos que eran exclusivos de su consola.
La versión para PC llega con varias mejoras técnicas respecto a la de consola pero no suficientes como para competir técnicamente con los juegos más modernos. God of War para PC incorpora soporte para 4K y resoluciones panorámicas (ultra-wide), reflejos mejorados, sombras a mayor resolución, oclusión ambiental y mejoras en el color, además de soporte para NVIDIA DLSS y AMD FSR, sin embargo seguimos con una base con la API DirectX 11 y se echa de menos el uso de tecnologías de DX12 como el trazado de rayos o el variable rate shading pero visualmente da la talla en este 2022.

El juego usa un motor gráfico propietario de Sony Santa Monica y no un clásico como sería el Unreal Engine, cosa que tiene sus cosas buenas y su parte negativa y es esa dificultad extra para adaptarse al PC. ¿Hay fallos? sí el más clamoroso es la imposibilidad de funcionar a pantalla completa, algo que se puede resolver jugando en modo ventana sin bordes pero que introduce cierto input lag. Algo que se intenta solventar con la introducción de la tecnología NVIDIA Reflex pero siendo un título sin multijugador eso parece es una pérdida de recursos en la programación aparte de estar limitado a los usuarios que tengan el hardware que soporta Reflex, que acaba siendo una minoría.
El consumo de VRAM empieza en los casi 6 GB a 900p y se acerca a los 8 GB a 4K, sin embargo tras evaluar el rendimiento de varias tarjetas gráficas queda claro que si bien las gráficas de 4 GB se ahogan, las soluciones de 6 GB no quedan detrás de las de 8 GB (GTX 1070 vs GTX 1660 Ti) por lo que parece que el juego sabe gestionar bien esos 6 GB a pesar de reservar una cantidad mayor.

A nivel de rendimiento estamos ante un título demasiado exigente para lo que ofrece y es que a nivel máximo de detalle vamos a necesitar de una Radeon RX 6600 (58,9) o una RTX 3060 (66,5) para conseguir la preciada fluidez. A 1440p vamos a necesitar una GeForce RTX 2080 (65,2) o una Radeon RX 6700 XT (69,3) mientras que a 4K se requiere de una RX 6800 XT (62) o una RTX 3080 (70,3).
En la comparativa se ha incorporado a la RX 6500 XT que no da la talla por su poca VRAM y con la que deberemos reducir notablemente el nivel de detalle para conseguir cierta suavidad, echamos en falta a la nueva RTX 3050 aunque en otros análisis apuntan a que si bien no llega a los 60 FPS a 1080p, por lo menos rondará los 50 y por lo tanto algún pequeño ajuste será suficiente para disfrutar del título de forma más que digna.
TechPowerUp detecta algo de popping y de stuttering en el juego, además de cuelgues al realizar saltos al escritorio así que el juego aún tiene aspectos a mejorar que, vista la buena acogida, deberían ser abordados por parte de Sony. Otros aspectos que nos destacan es que no se pueden desactivar los efectos depth of field, pero por otro lado las opciones motion blur y film grain sí son opcionales.
A nivel de rendimiento concluyen que es un juego muy exigente, que a pesar de estar programado inicialmente para PS4 con gráficos GCN rinde mejor con las gráficas de NVIDIA que las de AMD, cosa que ya es un clásico cuando se analizan juegos que usan DirectX 11. Con todo el rendimiento es bastante homogéneo y no hay grandes variaciones entre las distintas arquitecturas de ambos fabricantes de gráficas, lo que implica o un buen trabajo por parte de los desarrolladores o unos controladores que no han dejado de lado a ninguna generación gráfica.