25 : ivan_aparicio (1107 comentarios)
25/06/2015 9:00:46
#4, si, parece coil whine, pero no acabamos de estar seguros porque podria ser de la bomba de la RL al máximo rendimiento (realmente no es una bomba de gran calidad)
26 : GABICILI (60 comentarios)
25/06/2015 15:04:01
Ahora resulta que 4096 bits y 4 GB es poco. La verdad son la gata flora. Da la impresión que obvian muchas cuestiones a la hora de juzgar, como batería de juegos, S.O., hasta forzaron el fan para que el ruido aumente y sumarle oro punto negativo. El informe es tendencioso, redactado para lectores que querían decir que es un fail. Dan pena.
27 : garruleitor (898 comentarios)
25/06/2015 15:56:01
#26 en esta web siempre que hablaron de AMD/ATi en el pasado siempre los pusieron en un pedestal. Mucho mas que a NVidia creeme, el articulo lo han redactado como siempre. Sin embargo cuando un producto no es lo esperado pues no te pueden contar algo que no es cierto, asi de simple.
28 : lukhas (558 comentarios)
25/06/2015 15:59:54
Parece que el problema es que a bajas resoluciones no influye tanto el ancho de banda y si la frecuencia de trabajo(pocos datos para ocupar ese ancho de banda, que con el de la GDDR5 es suficiente, a mucha velocidad).En cambio a altas resoluciones son muchos más datos de golpe donde ese ancho de banda si es importante y no la velocidad.Quizas con las HBM a 1Ghz seria otra cosa.
AMD deberia ajustar los precios, que creo que se han columpiado.
salu2,
29 : DebianLinuxero (2101 comentarios)
25/06/2015 16:22:12
Escrito por nem:
dejandonos de fanboyismos todos sabemos que dx11 esta muriendo y lo que ha dich microsoft es que quieren hacer la transisicon a dx12 lo mas rapidamente posible aseguran que todos los trabajos de dx11 se podran portear de la forma mas sencilla a la nueva api
No sé cuántos desarrolladores portarán sus juegos de DX11 a DX12 para aprovechar el rendimiento extra.
Soy pesimista pensando en lo vagos que son, que hacen ports de consolas en vez de hacer versiones para PC desde 0.
Otra cosa serán los juegos nuevos, los que estén programando ahora.
Pero para el parque de juegos existentes, la GeForce 980 Ti es más rápida que la Fury.
A tener en cuenta que estos benchs están hechos con el driver de primera hornada. Habrá que ver cómo mejora el rendimiento según vaya madurando y le vayan sacando optimizaciones.
Lo interesante de todo esto :
-Que renueven las gamas medias con versiones recortadas de esta arquitectura para ganar en tamaño, consumo, calor y ruido.
30 : Ichiro Uchija (297 comentarios)
25/06/2015 20:53:54
Haber:
MÁXIMO consumo en juegos:
GTX 980TI: 371 Watts
R9 FURY : 400 Watts
19 Watts de diferencia.
Eso es todo, nadie va a estar utilizando FurMark, para llegar a ese consumo en el que recien hay diferencia apreciable, en los demás casos consume casi lo mismo, en este programa, consume así, por que ademas de ser un test innecesario para el 99% de las personas, es un test peligroso para la tarjeta, es un stress test máximo.
Recalco lleva al máximo a la Tarjeta gráfica, puede ocasionar reinicio o cuelgue del sistema, los ventiladores no funcionan como derivan para disipar el calor generado, hasta las fuentes reales de 650W o mas, no se dan abasto por completo, justamente por eso, solo lo usan profesionales para mostrar gráficas como estas, nadie quisiera exponer una tarjeta que le costo tanto, a menos claro que les sobre el dinero.
Para que se den cuenta que es casi inservible tomar en cuenta este consumo, ya que se llega a este consumo solo con FurMark. En juegos o programas que la mayoría utiliza, esta mas que bien, en potencia y consumo, a la par con la 980"TI", *cosa que no es poca cosa* ;)
Finalizando les menciono esto:
CONSUMO DE LA 290X al máximo en juegos es 420W, con menor rendimiento que la GTX 970, entonces hubo una gran mejoría en las tarjetas AMD y eso que estamos ya muchos años en 28mn, AMD FURY ligero menor consumo que la 290X en juegos y similar rendimiento que una 980TI. Sin mencionar que con 4GB HBM de memoria no se inmuta y rinde normal para 4K.
31 : dogkiller (546 comentarios)
26/06/2015 3:34:38
#30 Yo que soy un tocapelotas, te digo, de 371 a 400 van 29 no 19 xD
Total , lo unico que me ha quedado claro del asunto que para jugar a 1920 x 1200 una 970 o 960 y vas que ardes, no?
Para hacer un crossfire, vaya tocada de cojones con los radiadores de las liquidas...
32 : Sinuhé (342 comentarios)
26/06/2015 4:51:11
Con buena optimizacion hasta la Playstation 4 es superior a la Titan X a la hora de ejecutar juegos como el Batman Arkham Knight.
XD XD
Por eso digo que la arquitectura nueva de la Fury con sus novedosas memorias HBM puede que no este siendo bien aprovechada por los juegos de las baterias de pruebas.
Espero ver algo optimizado para las Fury nativamente y tener la razón.