• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Ahora mismo con directx 12 cual comprar ?fury X o gtx 980ti?

tonima

Chapuzas Junior
Registrado
25 Ago 2015
Mensajes
878
Puntos
0
Tengo monitor 4k y estoy mirando de comprarme una de estas graficas o la msi r9 fury x, o la inox gtx 980ti cual me recomendais ahora mismo con los directx 12 y windows 10? Muchas gracias.
 
Como no hay ningún juego en Directx12, difícil recomendar una u otra,habría que tirar de bola de cristal....
 
Pues tal y como esta la cosa? cual de ellas es la recomendable? a pesar de no saber el futuro claro :)
 
La misma que antes de Windows 10 y DirectX 12: entre esas dos, la 980 Ti.

Los que quieren ver en lo único parecido a "un dato" los resultados de una demo de un juego en estado alfa y patrocinado por AMD, simplemente son o gente necesitada de noticias de AMD o gente con ganas de debate sin más datos con los que hacerlo que, como es normal, están cogiendo el único detalle que tenemos y centrándose en él como si fuese "el todo"... cayendo en permitir que un árbol nos impida ver el bosque.

Una demo de algo en estado alfa, patrocinado (porque poner tu logo en algo vale muchísimo más dinero que el que nos imaginamos muchos), es sólo algo para mordisquear mientras tenemos títulos en el mercado y rendimiento medible por usuarios. Nada más.

Y en OCN salió de la nada un usuario nuevo que recopiló varias diapositivas de AMD e intentó explicar que, la ganancia de rendimiento al pasar de DX11 a DX12 en esa demo alfa patrocinada era debido a que en DX12 se puede dar un uso más grande a la computación paralela, algo que las gráficas GCN de AMD pueden hacer mucho a nivel hardware debido a su estructura y sus ACEs. Y es posible que ese resultado sea por eso, aunque tampoco hay que olvidar el patrocinio y que los drivers y features de NVIDIA en DX12 están más verdes que su logo (mientras AMD tenía más rodado en ese sentido por lo que ya hicieron para Mantle) y no dan soporte a ese título todavía.

Está claro que GCN va a ganar más relativamente con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela. Punto. Esto es lo que podemos inferir de su capacidad de hardware debido a sus ACEs... siempre y cuando el desarrollador del juego quiera y pueda aprovecharla.

No sabemos cuánto va a ganar NVIDIA porque no tenemos ni idea de cómo funciona su paralelismo dinámico (que hasta ahora sólo usan en CUDA) ni si se va a usar más allá ni cuándo ni cómo será, aunque podamos intentar entender algo de su hardware en ese sentido (que es sólo eso, "intentar entender", porque NVIDIA no ha lanzando una presentación de diapositivas explicándolo ni creo que lo haga... dan bombo y platillo a sus resultados, no a sus cocinas). No obstante, entiendo que al no tener la capacidad por hardware tan alta pues su ganancia relativa con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela, será menor.

Pero no perdamos el norte... "ganar más relativamente con el salto de DX11 a DX12" significa sólo eso. Que es una gran noticia para los usuarios, desde luego, porque parece que, por fin, si esos datos pudiesen ser extrapolables al total de escenarios DX12 estaríamos hablando de que, gracias a "ganar más relativamenete", las GCN se pondrían por fin a la altura de las últimas Maxwell V2 (que siguen sin superarlas, ahí está la demo de una alfa patrocinada y las Fury X "sólo" consiguen ponerse por fin a la altura de las 980 Ti... y ese dato es fundamental para la duda que tú te planteas) y, por fin, ya cuanto menos darían competencia. Que ya era hora...

Una pena que, si efectivamente se extrapola ese resultado, hayamos tenido que esperar hasta que los desarrolladores de juegos puedan usar DX12 para poder sacar rendimiento al hardware de AMD, un rendimiento que la propia AMD no ha sabido sacar hasta ahora. Pero bueno, seamos positivos, por fin alguien aunque no sea AMD puede sacárselo.

Pero insisto, no permitamos que un árbol nos impida ver el bosque... El aprovechamiento de la computación paralela es sólo una de las muchas capacidades y mejoras de DirectX 12. No podemos coger una parte y tomarla como "el todo".

No nos olvidemos de que las GCN son las únicas que ofrecen el Resource Biding Tier 3, pero su Feature Level de DX12 se queda en 11_1 en GCN 1.0, como las Kepler, y 12_0 las GCN 1.1 y 1.2. Las únicas que hay ahora mismo que a nivel hardware cumplan con DX12 Feature Level 12_1 son las Maxwell V2 (es decir, no "soportan DX12.1", eso no existe todavía como ya expliqué hace tiempo aquí, sino que soportan a nivel hardware la Conservative Rasterization Tier 1 y las Raster Order Views).

Y todo esto de computación paralela, ROV, Conservative Raster, Resource Biding... todo esto son "herramientas" que, ahora con DX12 y la facilidad de programar dependiendo menos de drivers, ponemos en mano de los creadores de los juegos para que ellos decidan y optimicen qué nos muestran en pantalla y cómo llegan hasta ello.

Así que os pido perdón por ser escéptico todavía y no creerme que está cerca esa competencia en el mercado que tanto ansío... me cuesta mucho creer que, cuando ambas compañías maduren sus drivers (sobre todo los verdes de los verdes) y esos desarrolladores de juegos por fin se pongan a hacer juegos (muchos) basados en DX12, la ganancia relativa final con el salto de DX11 a DX12 vaya a ser mayor en gráficas que soportan a nivel hardware más computación paralela pero se quedan en hardware con capacidad DX12 Feature Level 11_1, que en otras que puedan tener menor capacidad de computación paralela pero a nivel hardware tengan capacidad DX12 Feature Level 12_1. De ser así esto, el que describió los Feature Levels de DX12 se equivocó al ponerles los requisitos y los nombres.

Esto es lo que sabemos y todos (los pocos) datos que tenemos de cómo está la cosa de hardware de GPUS, Windows 10 y DirectX 12.

Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc. :D

Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras, creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.

Y, volviendo al 4K que tú te planteas, casi mejor irse al SLI si se quiere jugar con todo en ultra (o lo más alto posible) y una buena tasa de FPS. No existe ninguna GPU actualmente que pueda con el 4K a ese nivel de carga por si sola.

Saludos.
 
Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc. :D

Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras, creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.

Mucho indio suelto con señales de humo por AMD :memeo:

+1 980ti (aunque me parecen una sobrada los precios de las graficas de alta gama tanto los verdes como los rojos pero eso ya es opinion personal :blabla: )
 
Visto lo visto a día de hoy, +1 GTX 980 Ti.
 
R9 Nano o GTX980 a no ser que quieras el Pc por fardar, jugar a 2k 144fps, soñar con 4k o jugar en 1080p exactamente igual que con una gtx980 en el 99% de los juegos.

Si quieres jugar a 4k decentemente esperate una o dos generaciones
R9 nano?? Se sabe ya el rendimiento que tiene?
 
Sli o crossfire de cualquiera de las 2. Si sólo vas a coger una y jugar en 4k, suerte.
 
R9 nano?? Se sabe ya el rendimiento que tiene?

No, no se sabe.

Se sabe algo de publicidad, pero todavía no hay reviews ni, lo más importante, datos de usuarios para saber cómo va.

Si tiene un TDP de 175W y rinde "hasta 2 veces por wattio lo que la 290X" (información de la conferencia de presentación de las Fury), teniendo en cuenta que la 290X tiene un TDP de 290W, salvo que haya cambiado la cosa desde que Lisa Su dio esta conferencia para presentar el producto hace unos meses, es sencillo hacer el cálculo: consume un 39,65% menos que la 290X, así que rinde un 20,69% más que ella. Con esos números sale la relación de "2 veces el rendimiento por watio".

También es verdad que, según las reviews, la 390X rinde un 12,5% más que la 290X actualmente, así que eso pondría a la Nano un 7,28% más rápida que una 390X, pero con bastante menos consumo.

Si además nos fijamos aquí:
E5qDypyTdCWw.840x0.Vdef9Kkm.jpg


Tenemos que la la 980 es un 4,91% más potente que la 390X.

Haciendo matemáticas de nuevo, eso pone a la Nano en un teórico hasta 2,26% más de rendimiento que la 980 de referencia.

Y si el "2 veces el rendimiento por watio de la 290X" lo cogemos con pinzas con ese "up to" que llevaba delante, es decir, que decían que "hasta dos veces el rendimiento por watio de la 290X"... pues cuanto más se aleje, aunque sea por centésimas del "2 por watio" y se quede en "1,98 por watio" o así, pues más atrás se irá marchando la Nano hacia el rendimiento de la 970 más que de la 980.

Falta también por ver el precio, para ver en qué escalón la ponen y, si se cumple esa previsión de rendimiento, la Fury Nano no se convierte en la "Fury/Hawaii Killer" :roto2:

Saludos.
 
si se cumple lo que AMD dice con la nano (cosa que dudo) creo que a alguno de los pocos que posean alguna de las fury se van a tirar de los pelos. xd

Gran explicación josetortola.
 
fullkiller1 Tiene tela que AMD no confie ni en sus propias CPU :madrededios:, y no le metieron una GTX980ti porque no les entraba... :roto2:
 
jajajjajajajajja, virus, si le meten las 980ti, ya no valdría como adordo de mesita noche, debido al gran tamaño.

muy poca confianza da una empresa que utiliza productos de otra empresa rival, trabajando ellos en la misma rama, toda la razón.
 
A ver si Samsung como se rumoreaba compra AMD , le da un lavado de cara, una inyeccion de I+D y que esta empresa empieze a despuntar :sisi3:
 
fullkiller1 Tiene tela que AMD no confie ni en sus propias CPU :madrededios:, y no le metieron una GTX980ti porque no les entraba... :roto2:
jajajaja hubiera sido epico eso!!!

Con respecto al tema opino que sin lugar a dudas la 980Ti es la mejor opción.... sobran las razones.
 
Arriba