1 : TH2GO  (1808 comentarios)
16/09/2020 17:17:48
En mi caso concreto que juego en 4K, un 40% respecto a la 2080, en esa resolución y a ese precio, es motivo más que de sobra para decantarme por el cambio, mucho más viniendo como vengo de una 1080. En su día la 2080 no me pareció suficiente motivo para saltar desde la 1080, pero hoy la cosa ha cambiado mucho. Para mí, rendimiento brutal el de la 3080.
2 : marauder  (123 comentarios)
16/09/2020 17:31:41
Esta claro que la CPU hace de cuello de botella, solo hay que comparar los resultado en fullHD y en 4K, seguramente con una 3090 tambien veriamos resultados similares.
Y ya veremos si la 3070 supera a la 2080 TI, en 4k, donde la CPU no hace tanto cuello de botella, creo que la 3070 si superara a la 3080TI, quizas por poco, pero estoy seguro de que si la superara.
3 : GHOSTMAN  (2431 comentarios)
16/09/2020 17:45:11
#2 Cuidado, que las pruebas las han hecho con dos procesadores, un 10900K y un Ryzen 3900XT. Cuello de botella no se yo si habrá con esos micros. Y si lo hay no creo que sea mucho.
De todos modos, si dices que vas a DUPLICAR (que se dice rápido) el rendimiento y luego la cosa es un 40% de mejora en el mejor de los casos, pues te sienta un poco como un jarro de agua fria. Eso sí, la peña como loca malvendiendo sus 2700 y 2800 por pillar una gráfica que iba a "duplicar" a las suyas. Anda que ...
Y sigo pensando que la 3070 NO va a ser más potente que la 2080Ti. Y ojo, a mi me importa un pimiento, yo soy de jugar en las pequeñas ligas, gráficas de 120 - 150€ a lo sumo.
4 : JoNaThAn EviL  (2742 comentarios)
16/09/2020 19:07:20
Lo de esta pag es una pasada, te meten una cpu que es una sobrada a día de hoy y si la grafica no dobla el rendimiento es porque la cpu hace cuello de botella cuando ninguna cpu de la actual generación esta siendo aprovechado...
Eso si... no tiene nada que ver el cuello de botella de la vram como comentan y como se mojan al decirlo algunos analistas de youtube. Como por ejemplo toro tocho que le da igual decir que algo es una basura.
Aceptarlo de una vez, nvidia esta racaneando en vram y una 3080 solo tiene 10 gigas como ya se estan viendo en los analisis, esto es insuficiente a dia de hoy en algunos juegos haciendo que no puedas ponerlo todo en ultra o que hayan cuellos de botella. Volvedme a llenar de negativos fanboys. Que me podréis llenar a negativos, pero los analisis no lo vais a poder cambiar.
Nvidia lo ha hecho así para que en un año o dos vuelvas a pasar por caja.
Te esperabas que te ibas a quedar con una 3080 o 3070 que te durará toda la generación de ps5 y xbox x y encima mas barata que la serie 20? permitidme que me ria...
Estas revisiones que ya se estan rumoreando con el doble de vram van a ser necesarios. Y sobretodo en juegos que están mal porteados que suelen ser la gran mayoría.
Al final el doble que una 2080 se ha resumido en una diferencia de 10-15 fps. Incluso con una 3080 no vas a poder jugar a 60 fps estable en 4k y vas a depender muchissimo del dlss 2.0 que para rematar solo funciona en resoluciones superiores a 2k para que no uses su tecnologia en resoluciones donde la gente se conforma como los 1080p.
La técnica publicitaria de nvidia funciona, solo hay que leer la de fanboys que hay. Y el como les da igual sus mentiras publicitarias.
5 : Starcraft2  (266 comentarios)
16/09/2020 20:17:29
Estoy flipando con esta noticia!!!!
Pero el redactor se ha dado cuenta de lo que esta escribiendo???¡¡¡¡¡
Pero vamos a ver, si la 2080 rinde un 60% de la 3080 no es un 40% más potente la segunda que la primera!!!!!
ES CASI el doble 50% x 2 = 100% que es lo que Nvidia anunció y que se cumple obviamente con algunos juegos, no con todos...
En serio lo flipo, que se esperaba? que el 100% de rendimiento de las gráficas o "barras " mostradas en el resumen de rendimiento en 4k del análisis de la 3080 se basarán en la 2080???
Para que quede más claro, según las capturas de la noticia, a 4K la 3080 (100%) rinde el doble que la 5700XT (50%), me parece que es algo obvio que no hay que explicar.
Hay que pensar un poco antes de escribir estas cosas...
4# Pero que chorradas dices??¡¡, mira bien los análisis y luego hablas del tema.
Si no entiendes como aprovechan los juegos las CPUs en PC, mejor no digas nada xD
Cuando salgan las reviews de la 3090 veremos si lo que dices sobre la necesidad inminente de tener 16GB de VRAM como mínimo que tanto reclamas en cada noticia de Nvidia Ampere es cierta o no...
Pero ya te adelanto que NO, las consolas solo tienen de 10 a 12GB de VRAM para utilizar en los juegos ya que no tienen memoria de sistema (RAM), y también está la Serie S que solo tiene 10GB en total, por descontado todos los juegos multiplataforma que saquen deben de funcionar perfectamente también en ella.
Si no vas a jugar a 8K sin DLSS olvídate de necesitar 16GB o más de VRAM a corto-medio plazo.
Comprarse una 3080 para jugar a 1080P es cuanto menos un poco estúpido, pero aún así es la opción más potente ahora mismo para esa resolución.
Te recuerdo que la Radeon VII tiene 16GB de HBM2 con un ancho de banda brutal y no logra superar en 4k a la 2080 normal, más que en un par de juegos y por poco.
Ver como juegos tan "pesados" como el RDR2 va a menos de 50FPS en 4k con todo a full en la 2080Ti, y que ahora con una 3080 llegue a 70FPS es
6 : Eryou  (1408 comentarios)
16/09/2020 20:39:27
Nvidia lo que dijo (que yo sepa) es que duplicaba los Tflops, porque la estructura de los Cuda cores ha cambiado bastante. Pero toda esa potencia es menos aprovechable en juegos (en computación será otra cosa).
Y al final se ha visto lo que tantos sospechábamos:
- El salto de rendimiento no es tan grande y aunque no está mal del todo, han necesitado subir el consumo a lo bestia para lograrlo.
- Dijeron que el rendimiento/watt mejoraría entre un 40-50%. Apenas ha llegado al 25%... (y menos mal al nuevo proceso de fabricación, por arquitectura, casi nada)
- Dijeron que el rendimiento de las unidades RT se había duplicado y lo que hemos visto es que los márgenes con RT activado se mantienen prácticamente igual que sin él...
Desde luego, AMD nunca lo va a tener tan fácil. Que alcancen o no el rendimiento de la 3090 es irrelevante, pero tienen una oportunidad de oro de llevarse el gato al agua en el rendimiento/precio, que como demuestra
TechSpot, la 3080 ni tan si quiera mejora a las 5700/XT a 1440p.
7 : Starcraft2  (266 comentarios)
16/09/2020 20:58:31
6#
Dijeron que Ampere tiene una mejora de eficiencia de x1.9, y la tiene pero a 120W, no a 300W, típico truco publicitario, si de verdad te crees que AMD va sacar una GPU de 300W con una eficiencia del 50% respecto a RDNA1 te vas a llevar una desagradable sorpresa, seguramente esa mejora entre ambas arquitecturas se dé en algún punto donde el consumo no llegue a 200W.
Me parece que te equivocas Nvdia se refiero claramente a doblar el rendimiento en juegos, en computo parece haber bastante más del doble de rendimiento entre la 2080 y la 3080:
LinkExpusieron que doblaría a la 2080, y así es, la dobla en algunos juegos, como siempre el que creyese que iba a doblar el rendimiento de la 2080 en todos los juegos, es que lleva dos días mirando análisis de GPUs, aún así llega al 70% en un mix de juegos DX11 y DX12, lo cual es increíble para ser una mejora de un solo salto de arquitectura.
Las diferencias en juegos DX12 y Vulkan si que parecen acercarse más a ese 100% extra de rendimiento sobre la 2080, así que no veo el problema, ya que estas APIs son el futuro del desarrollo de los videojuegos.
No se porque sigues poniendo capturas de precio/rendimiento de TechSpot, no sirven para nada.
La realidad es que la 3080 dobla en rendimiento a la 5700XT consumiendo 80W más y no cuesta el doble que esta última, lo más pobre es que pones la gráfica resumen a 2k, siendo tu el que catalogas las diferentes gamas de GPUs por resolución.....
No veo el día que salgan las reviews de BigNavi para que desmonte todas y cada una de las "locas" teorías que hay sobre ella ;)