• Invitado, todos los mensajes escritos en el día de hoy (20 de enero) han sido eliminados al restaurar un backup (copia de seguridad) de las 00:00 para corregir unos problemas. Sentimos las molestias.

Ahora mismo con directx 12 cual comprar ?fury X o gtx 980ti?

tonima

Master Chapuzas
Registrado
25 Ago 2015
Mensajes
879
Puntos
0
Tengo monitor 4k y estoy mirando de comprarme una de estas graficas o la msi r9 fury x, o la inox gtx 980ti cual me recomendais ahora mismo con los directx 12 y windows 10? Muchas gracias.
 

luiceko

Master Chapuzas
Registrado
7 Abr 2014
Mensajes
857
Puntos
28

SuperViruS

Master Chapuzas
Registrado
24 Nov 2014
Mensajes
801
Puntos
0
Como no hay ningún juego en Directx12, difícil recomendar una u otra,habría que tirar de bola de cristal....
 

tonima

Master Chapuzas
Registrado
25 Ago 2015
Mensajes
879
Puntos
0
Pues tal y como esta la cosa? cual de ellas es la recomendable? a pesar de no saber el futuro claro :)
 

josetortola

Master Chapuzas
Registrado
23 May 2014
Mensajes
381
Puntos
28
La misma que antes de Windows 10 y DirectX 12: entre esas dos, la 980 Ti.

Los que quieren ver en lo único parecido a "un dato" los resultados de una demo de un juego en estado alfa y patrocinado por AMD, simplemente son o gente necesitada de noticias de AMD o gente con ganas de debate sin más datos con los que hacerlo que, como es normal, están cogiendo el único detalle que tenemos y centrándose en él como si fuese "el todo"... cayendo en permitir que un árbol nos impida ver el bosque.

Una demo de algo en estado alfa, patrocinado (porque poner tu logo en algo vale muchísimo más dinero que el que nos imaginamos muchos), es sólo algo para mordisquear mientras tenemos títulos en el mercado y rendimiento medible por usuarios. Nada más.

Y en OCN salió de la nada un usuario nuevo que recopiló varias diapositivas de AMD e intentó explicar que, la ganancia de rendimiento al pasar de DX11 a DX12 en esa demo alfa patrocinada era debido a que en DX12 se puede dar un uso más grande a la computación paralela, algo que las gráficas GCN de AMD pueden hacer mucho a nivel hardware debido a su estructura y sus ACEs. Y es posible que ese resultado sea por eso, aunque tampoco hay que olvidar el patrocinio y que los drivers y features de NVIDIA en DX12 están más verdes que su logo (mientras AMD tenía más rodado en ese sentido por lo que ya hicieron para Mantle) y no dan soporte a ese título todavía.

Está claro que GCN va a ganar más relativamente con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela. Punto. Esto es lo que podemos inferir de su capacidad de hardware debido a sus ACEs... siempre y cuando el desarrollador del juego quiera y pueda aprovecharla.

No sabemos cuánto va a ganar NVIDIA porque no tenemos ni idea de cómo funciona su paralelismo dinámico (que hasta ahora sólo usan en CUDA) ni si se va a usar más allá ni cuándo ni cómo será, aunque podamos intentar entender algo de su hardware en ese sentido (que es sólo eso, "intentar entender", porque NVIDIA no ha lanzando una presentación de diapositivas explicándolo ni creo que lo haga... dan bombo y platillo a sus resultados, no a sus cocinas). No obstante, entiendo que al no tener la capacidad por hardware tan alta pues su ganancia relativa con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela, será menor.

Pero no perdamos el norte... "ganar más relativamente con el salto de DX11 a DX12" significa sólo eso. Que es una gran noticia para los usuarios, desde luego, porque parece que, por fin, si esos datos pudiesen ser extrapolables al total de escenarios DX12 estaríamos hablando de que, gracias a "ganar más relativamenete", las GCN se pondrían por fin a la altura de las últimas Maxwell V2 (que siguen sin superarlas, ahí está la demo de una alfa patrocinada y las Fury X "sólo" consiguen ponerse por fin a la altura de las 980 Ti... y ese dato es fundamental para la duda que tú te planteas) y, por fin, ya cuanto menos darían competencia. Que ya era hora...

Una pena que, si efectivamente se extrapola ese resultado, hayamos tenido que esperar hasta que los desarrolladores de juegos puedan usar DX12 para poder sacar rendimiento al hardware de AMD, un rendimiento que la propia AMD no ha sabido sacar hasta ahora. Pero bueno, seamos positivos, por fin alguien aunque no sea AMD puede sacárselo.

Pero insisto, no permitamos que un árbol nos impida ver el bosque... El aprovechamiento de la computación paralela es sólo una de las muchas capacidades y mejoras de DirectX 12. No podemos coger una parte y tomarla como "el todo".

No nos olvidemos de que las GCN son las únicas que ofrecen el Resource Biding Tier 3, pero su Feature Level de DX12 se queda en 11_1 en GCN 1.0, como las Kepler, y 12_0 las GCN 1.1 y 1.2. Las únicas que hay ahora mismo que a nivel hardware cumplan con DX12 Feature Level 12_1 son las Maxwell V2 (es decir, no "soportan DX12.1", eso no existe todavía como ya expliqué hace tiempo aquí, sino que soportan a nivel hardware la Conservative Rasterization Tier 1 y las Raster Order Views).

Y todo esto de computación paralela, ROV, Conservative Raster, Resource Biding... todo esto son "herramientas" que, ahora con DX12 y la facilidad de programar dependiendo menos de drivers, ponemos en mano de los creadores de los juegos para que ellos decidan y optimicen qué nos muestran en pantalla y cómo llegan hasta ello.

Así que os pido perdón por ser escéptico todavía y no creerme que está cerca esa competencia en el mercado que tanto ansío... me cuesta mucho creer que, cuando ambas compañías maduren sus drivers (sobre todo los verdes de los verdes) y esos desarrolladores de juegos por fin se pongan a hacer juegos (muchos) basados en DX12, la ganancia relativa final con el salto de DX11 a DX12 vaya a ser mayor en gráficas que soportan a nivel hardware más computación paralela pero se quedan en hardware con capacidad DX12 Feature Level 11_1, que en otras que puedan tener menor capacidad de computación paralela pero a nivel hardware tengan capacidad DX12 Feature Level 12_1. De ser así esto, el que describió los Feature Levels de DX12 se equivocó al ponerles los requisitos y los nombres.

Esto es lo que sabemos y todos (los pocos) datos que tenemos de cómo está la cosa de hardware de GPUS, Windows 10 y DirectX 12.

Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc. :D

Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras, creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.

Y, volviendo al 4K que tú te planteas, casi mejor irse al SLI si se quiere jugar con todo en ultra (o lo más alto posible) y una buena tasa de FPS. No existe ninguna GPU actualmente que pueda con el 4K a ese nivel de carga por si sola.

Saludos.
 

BiteMy

Master Chapuzas
Registrado
17 Jul 2013
Mensajes
542
Puntos
0
Edad
41
Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc. :D

Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras, creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.

Mucho indio suelto con señales de humo por AMD :memeo:

+1 980ti (aunque me parecen una sobrada los precios de las graficas de alta gama tanto los verdes como los rojos pero eso ya es opinion personal :blabla: )
 

Borja Rodríguez

Amo y señor de los Chapuzas
Miembro del equipo
Registrado
4 Jul 2012
Mensajes
81.756
Puntos
113
Edad
32
Visto lo visto a día de hoy, +1 GTX 980 Ti.
 

flauros

Master Chapuzas
Registrado
26 Jun 2013
Mensajes
6.690
Puntos
113
R9 Nano o GTX980 a no ser que quieras el Pc por fardar, jugar a 2k 144fps, soñar con 4k o jugar en 1080p exactamente igual que con una gtx980 en el 99% de los juegos.

Si quieres jugar a 4k decentemente esperate una o dos generaciones
 

Romeroro

Master Chapuzas
Registrado
23 Dic 2014
Mensajes
221
Puntos
18
R9 Nano o GTX980 a no ser que quieras el Pc por fardar, jugar a 2k 144fps, soñar con 4k o jugar en 1080p exactamente igual que con una gtx980 en el 99% de los juegos.

Si quieres jugar a 4k decentemente esperate una o dos generaciones
R9 nano?? Se sabe ya el rendimiento que tiene?
 

Atabey

Master Chapuzas
Registrado
21 Ago 2015
Mensajes
257
Puntos
0
Sli o crossfire de cualquiera de las 2. Si sólo vas a coger una y jugar en 4k, suerte.
 

josetortola

Master Chapuzas
Registrado
23 May 2014
Mensajes
381
Puntos
28
R9 nano?? Se sabe ya el rendimiento que tiene?

No, no se sabe.

Se sabe algo de publicidad, pero todavía no hay reviews ni, lo más importante, datos de usuarios para saber cómo va.

Si tiene un TDP de 175W y rinde "hasta 2 veces por wattio lo que la 290X" (información de la conferencia de presentación de las Fury), teniendo en cuenta que la 290X tiene un TDP de 290W, salvo que haya cambiado la cosa desde que Lisa Su dio esta conferencia para presentar el producto hace unos meses, es sencillo hacer el cálculo: consume un 39,65% menos que la 290X, así que rinde un 20,69% más que ella. Con esos números sale la relación de "2 veces el rendimiento por watio".

También es verdad que, según las reviews, la 390X rinde un 12,5% más que la 290X actualmente, así que eso pondría a la Nano un 7,28% más rápida que una 390X, pero con bastante menos consumo.

Si además nos fijamos aquí:


Tenemos que la la 980 es un 4,91% más potente que la 390X.

Haciendo matemáticas de nuevo, eso pone a la Nano en un teórico hasta 2,26% más de rendimiento que la 980 de referencia.

Y si el "2 veces el rendimiento por watio de la 290X" lo cogemos con pinzas con ese "up to" que llevaba delante, es decir, que decían que "hasta dos veces el rendimiento por watio de la 290X"... pues cuanto más se aleje, aunque sea por centésimas del "2 por watio" y se quede en "1,98 por watio" o así, pues más atrás se irá marchando la Nano hacia el rendimiento de la 970 más que de la 980.

Falta también por ver el precio, para ver en qué escalón la ponen y, si se cumple esa previsión de rendimiento, la Fury Nano no se convierte en la "Fury/Hawaii Killer" :roto2:

Saludos.
 

fullkiller1

Usuario Baneado
Registrado
30 Mar 2015
Mensajes
276
Puntos
0
si se cumple lo que AMD dice con la nano (cosa que dudo) creo que a alguno de los pocos que posean alguna de las fury se van a tirar de los pelos. xd

Gran explicación josetortola.
 

SuperViruS

Master Chapuzas
Registrado
24 Nov 2014
Mensajes
801
Puntos
0
fullkiller1 Tiene tela que AMD no confie ni en sus propias CPU :madrededios:, y no le metieron una GTX980ti porque no les entraba... :roto2:
 

fullkiller1

Usuario Baneado
Registrado
30 Mar 2015
Mensajes
276
Puntos
0
jajajjajajajajja, virus, si le meten las 980ti, ya no valdría como adordo de mesita noche, debido al gran tamaño.

muy poca confianza da una empresa que utiliza productos de otra empresa rival, trabajando ellos en la misma rama, toda la razón.
 

BiteMy

Master Chapuzas
Registrado
17 Jul 2013
Mensajes
542
Puntos
0
Edad
41
A ver si Samsung como se rumoreaba compra AMD , le da un lavado de cara, una inyeccion de I+D y que esta empresa empieze a despuntar :sisi3:
 

<<=Aquiles=>>

Master Chapuzas
Registrado
30 Jun 2015
Mensajes
393
Puntos
28
fullkiller1 Tiene tela que AMD no confie ni en sus propias CPU :madrededios:, y no le metieron una GTX980ti porque no les entraba... :roto2:
jajajaja hubiera sido epico eso!!!

Con respecto al tema opino que sin lugar a dudas la 980Ti es la mejor opción.... sobran las razones.
 
Arriba