2 : Starcraft2  (424 comentarios)
02/10/2020 16:00:04
1#
Vaya debe de haberte "roto" un poco los esquemas de tus cálculos matemáticos super precisos el que la supuesta 6700XT tenga 2000 shaders y "solo" rinda lo mismo que la 5700XT que tiene 2500, siendo la primera RDNA2 y la segunda RDNA1, aún con las diferencias en el ancho de banda de la memoria.
3 : Xandrin  (1759 comentarios)
02/10/2020 16:48:22
Impresionante que pueda rendir como la 5700XT con peores especificaciones y con un consumo muy inferior. Lo mejor el precio, esa potencia a ese precio, hacia mucho que no se veía algo así.
O sea que por 200 euros o menos van a salir gráficas muy potentes, que pudieran competir con la RTX 2060, y con menos consumo.
Por consumos o precios se lo puede poner complicado a Nvidia, aunque vendan mensos.
Personalmente me iría a la que menos energía consuma con mejor RTX de las dos.
La duda es AMD, no esta nada claro el potencial que va tener frente a Nvidia en trazado de rayos. Y otro tema es el DLSS.
Va ser la clave para que Nvidia pueda competir con las consolas y con AMD.
Tengo ganas de ver como salen, y los precios, podría ser el mayor salto desde el 2012. Precio, potencia y consumo.
4 : Eryou  (1824 comentarios)
02/10/2020 16:55:19
#2
Para nada, de hecho cuadra bastante con la lógica que tu no pareces (o no quieres) entender. Esto no hace otra cosa que darme la razón.
Tiene todo el sentido que una gráfica RDNA2 con unos 2048 SP rinda como una 5700XT (incluso puede que más), ya que cuenta con el favor de mayores frecuencias y mejor IPC. Otra historia es que AMD se marque un "Nvidia RTX3000" y pierdan IPC como le ha pasado a la compañía verde.
Por eso precisamente una RDNA2 de 2560 SP podría estar bastante cerca de una 2080 TI.
Sobre el ancho de banda no se sabe nada todavía, aunque está ese supuesto "enorme caché" de 128 MB que ahorraría un montón de consumo de ancho de banda...
Y no, a pesar de tu marcada envidia/tirria (que no Nvidia) que denotas en tus comentarios, yo no hago cálculos super precisos. La precisión está en las matemáticas, yo solo las interpreto ;).
5 : Primer Mandarín (670 comentarios)
02/10/2020 22:04:24
Bueno, no se necesita competir con la tarjeta más potente que solo estará al alcance de una minoría. Si la 6900 queda a medio camino entre la 3070 y la 3080, y soporta características de raytracing, el mercado gráfico estará más animado que en la generación pasada.
6 : Monster128  (9 comentarios)
03/10/2020 0:22:18
¿Seguimos pensando que Big Navi apenitas estará arriba de la 3070? ¿Porqué siguen pensando que la 3070 es lo mismo que la 2080 TI cuando ninguna afirmación sobre el rendimiento de Ampere ha sido cierta? Si el juego no tiene demasiado RT en él, la 3070 va a estar más cerca a una 2080 Super o no Super que a una 2080 Ti, si no juegas o si el juego de plano no tiene RT eso no rendirá cómo una 2080 TI.
¿En serio creen que Big Navi apenas vencerá a la 3070?
36 CU's a 2.2GHz dando un rendimiento similar a una 2080 y 52 CU's a 1.8GHz con rendimiento entre una 2080 S y 2080 TI (E incluso en juegos muy optimizados más cerca de la TI cómo en Gears V en 4k Ultra con RT y dando 100 fps) ¿Y se supone que 80 CU's a 2.2GHz (Cómo los rumores sugieren) estará un pelín arriba de la 3070? no es por tirar hype, pero si de algo estoy seguro es que si Big Navi viene con al menos 72 CU's a 2.1GHz estará muchísimo más cerca de una 3080 que de una 3070, y lo hará con más VRAM, menos costo (3080) y con menor consumo (Considerando que la XSX consume 300W, contando todo el sistema, no sólo la GPU)
Ampere ha sido un fiasco muy bien vendido por el departamento de marketing ¿Una 3080 con 30% más rendimiento que una 2080 TI consumiendo 30% más es impresionante en estos días? esto sin mencionar que (Al menos la 3080 y 3090) están haciendo cuello de botella en resoluciones menores a 4k, o sea, ese 30% de rendimiento baja mientras más bajas la resolución, Pascal, ese si fue un salto generacional impresionante, Turing y Ampere no lo han sido.
7 : Xandrin  (1759 comentarios)
03/10/2020 11:16:15
6# estoy contigo. Turing para mí, ha hado un mayor salto de eficiencia-rendimiento, ya que incluso tuvo que añadir RT Cores y demás. Según con que graficas redujo el consumo y mejoro los Shaders.
Ampere no ha reducido consumo, han aumentado los Shaders.
Faltaría ver que van hacer con los Chips pequeños que faltan por salir, se aumentaran los Shaders y reducirán el consumo.
Con lo poco visto hasta hora no se puede garantizar nada, pero el salto de AMD puede que sea el doble que Nvidia.
Podría ser la mayor reducción de calor desde la serie HD 5000 (por el 2010), antes de usar GCN.
GCN tenía intención de abastecer el computo profesional, y Ampere ahora parece que han hecho lo mismo, le han añadido mucho computo que por ahora no va bien en juegos (y el aumento de consumo, que fue cosa también con GCN).
Muchos Cores sin control, veremos si los juegos los desarrollan para ello.