• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

AYUDA Cambio de Gráfica y el tema del directx 12.

Enantynum

Nuevo
Registrado
26 Feb 2016
Mensajes
4
Puntos
0
Buenas a todos.
Soy nuevo en el foro y me gustaría que me dierais vuestra opinión sobre que hacer y a porque tarjeta gráfica ir.

Actualmente dispongo de un I5 3500K,8Gb de ram,Nvidia Geforce GTX 760 y una fuente Corsair tx650.
Me dispongo a cambiar la gráfica y coger 8Gb de ram más, en cuanto a las gráficas quiero irme a por la Nvidia 970 o la Radeon R9 390, o incluso la 390X.
Lo que me echa para atrás es las altas temperaturas de las Radeon y si la diferencia será muy grande. Gracias.
He estado ojeando y con el directx 12 se ve que las AMD ganan mucha fuerza.
 
Yo no te recomiendo comprar 8GB más de ram porque por ahora ningún juego que conozco lo necesita.

Si tienes una caja ventilada, la r9 390 no debería dar ningún problema, la gtx 970 está bien pero parece quedarse corta en nuevos juegos que van a salir. Aun así cualquiera de estas es una buena elección.

Hasta que no salgan varios juegos con directx 12, pasen unos meses para unos drivers decentes de cada compañía y se hagan benchmarks, no se debería elegir una gráfica u otra por estas pruebas en un juego.


Lo ideal seria esperar a la siguiente generación pero es demasiado tiempo, si tienes una caja bien ventilada coge la r9 390, si no, coge la gtx 970
A ver que dicen los demás
 
Sigue con la misma gráfica, cambiala mas adelante.
 
Lo único que hay de DirectX 12 es una beta patrocinada por AMD donde ahora las AMD vuelven a rendir mejor de lo que lo hacían con DirectX 11.

Cuando la beta empezó a probarse, a la salida de Windows 10, los drivers de NVIDIA que estaban demasiado verdes hicieron que las de AMD se acercasen (por fin) al rendimiento de estas. Aunque aún les queda bastante camino que recorrer, durante este tiempo NVIDIA ha ido madurando sus drivers y últimamente estaban recuperando la distancia respecto a AMD.

Así que como la cosa no iba muy bien en la propia Beta patrocinada por AMD y la publicidad esa de "AMD va mejor en DX12" empezaba a difuminarse, en la última actualización de la Beta han metido Async Shaders, una capacidad de las muchísimas que tiene DirectX 12 que hace que se pueda aprovechar para meter en las colas de trabajo de la GPU otros trabajos de cómputo aprovechando cuando de otra forma estarían paradas esas colas esperando a que acabe otra.

Es decir, siguiendo hablando de una manera muy sencilla u peregrina para que todos nos entendamos (aún sabiendo que no sea dar fidelidad exacta al concepto), una Feature que hace aue se aprovechen mejor los tiempos muertos de las colas de las GPU.

En AMD esta gestión se hace por hardware; y de hecho la propia tecnología de AMD hacía que antes, en DX11 o donde no se aprovecha ese Async Compute, los "tiempos muertos" de sus colas fuesen muy grandes. De ahí que nunca rindiesen para el músculo que supuestamente tenían.

En NVIDIA también se usa el cómputo asíncrono. En CUDA. Pero para hacer los Async Shaders habría que hacer esa gestión por software* (driver). Y la propia NVIDIA reconoce que todavía no lo ha implantado. De todas formas, la tecnología de NVIDIA hace que las tareas que se mandan a las colas de la GPU vayan muy subdivididas en tareas más pequeñas y su gestión hace que haya muchísimo menos "tiempo muerto" entre ellas. De manera que la capacidad para "aprovechar tiempos muertos" seguramente aporte menos mejora de rendimiento que en AMD.

Todo eso, donde se usen Async Shaders. Ahí las AMD ganarán un poco de rendimiento respecto al rendimiento de ellas mismas si no se usase. Y ahí igualmente las NVIDIA, si ganan rendimiento respecto a ellas mismas, seguramente sea poco. Es decir, el empleo de Async Shaders puede hacer que las AMD usen mejor "el músculo" que de verdad tienen y que de otra manera y hasta ahora ha estado totalmente desaprovechado, mientras que las NVIDIA han aprovechado su músculo mejor sin necesidad de eso.

¿Eso hace que AMD sea "muy superior" a NVIDIA en DirectX 12?, no, eso hace que AMD gane rendimiento respecto a ella misma al pasar a ciertos puntos de DirectX 12, tanto que quizá y si no se usan más features de DirectX 12 que esa (recordemos que las AMD son Feature Level 12_0 mientras que las Maxwell de NVIDIA son Feature Level 12_1, es decir, las NVIDIA soportan a nivel hardware más funciones y features de DirectX 12 que las AMD) en algunos títulos las AMD puedan rendir, por fin, al nivel de las NVIDIA o incluso puede que ligeramente mejor.

Como el caso actual de esta beta patrocinada por AMD.

La última versión del AotS con la última versión de drivers de NVIDIA (361.91):

DX11 MonoGPU: 70.9 FPS

DX11-monoGPU_zpsom4egoct.jpg



DX12 MonoGPU: 71.3 FPS

DX12-monoGPU_zpsovddqrv2.jpg



DX12 MultiGPU: 84.0 FPS

DX12-multiGPU_zpsmdmt93nc.jpg


Aunque el MultiGPU es de risa. La carga media en las dos tarjetas es del 50% en cada una, medido con HWInfo64. Evidentemente, no tiene perfil SLI todavía. En DX11 ni siquiera permite activar el modo multi-gpu.

De estos datos, se ve como las 980 Ti ganan un 0,56% al pasar de DX11 a DX12. No es que pierdan rendimiento con DX12, es que al forzarlas a usar un juego con los Async Shaders que ellas aún no soportan por drivers, no ganan prácticamente nada de rendimiento.

Sin embargo, una Fury X en las mismas circunstancias gana más de un 35% de rendimiento. ¿Y para qué?, para quedarse en 74 FPS. 2 más que la 980 Ti.

Es decir, haciendo uso ahora de los Async Shaders, una Fury X consigue remontar su desastroso resultado en la propia Beta patrocinada por AMD y acercarse a una 980Ti. Incluso ganarle por 2 FPS. Que está muy bien y ya era hora. Lo que no era normal es que, hasta ahora, hasta en una beta patrocinada por AMD estuviese tan por debajo de la 980 Ti.

E insisto, ahora habrá que esperar a que NVIDIA saque el soporte en drivers de Async Shaders, que salgan más juegos patrocinados por ellos, que los juegos en DX12 utilicen más features de DirectX 12 y las AMD tengan que emularlas por software mientras las NVIDIA lo hagan a nivel hardware con las features 12_1 (justo al revés que pasa con los Async Shaders), etc. etc.

Todo eso sin contar con que no sabemos qué características y capacidades tendrá respecto a DX12 las nuevas GPUs de ambas marcas que se supone que tienen que empezar a salir a partir de la mitad de este año...

Así que vuelvo a repetir la pregunta: con toda la información que tenemos (o más bien la poca) y sin embargo todas las incertidumbres, ¿se puede decir que DirectX 12 vaya a ser la panacea para las AMD, que vayan estas a superar descaradamente a las NVIDIA o que estas últimas pierdan rendimiento?...

Pues depende.

Si eres una web sensacionalista, de contrastar poco las noticias que públicas o claramente pro-AMD, pues si, lo andas diciendo, "no vas a dejar que la verdad te arruine una buena noticia", que se dice en periodismo.

Si eres alguien más neutral o te basas más en la información, pues igual no puedes todavía ni siquiera todavía afirmar que por fin DX12 nos vaya a traer a los usuarios la sana competencia real que tan bien nos vendría.

Pero bueno, insisto, esto es sólo datos. Y son muy pocos hoy en día. Si alguien quiere correr a vender o comprar una marca o un producto por ello, libre es de gastar su dinero en lo que quiera y no seré to quien se oponga a ello :D

Saludos.

Enviado desde mi SM-G900F mediante Tapatalk
 
Lo único que hay de DirectX 12 es una beta patrocinada por AMD donde ahora las AMD vuelven a rendir mejor de lo que lo hacían con DirectX 11.

Cuando la beta empezó a probarse, a la salida de Windows 10, los drivers de NVIDIA que estaban demasiado verdes hicieron que las de AMD se acercasen (por fin) al rendimiento de estas. Aunque aún les queda bastante camino que recorrer, durante este tiempo NVIDIA ha ido madurando sus drivers y últimamente estaban recuperando la distancia respecto a AMD.

Así que como la cosa no iba muy bien en la propia Beta patrocinada por AMD y la publicidad esa de "AMD va mejor en DX12" empezaba a difuminarse, en la última actualización de la Beta han metido Async Shaders, una capacidad de las muchísimas que tiene DirectX 12 que hace que se pueda aprovechar para meter en las colas de trabajo de la GPU otros trabajos de cómputo aprovechando cuando de otra forma estarían paradas esas colas esperando a que acabe otra.

Es decir, siguiendo hablando de una manera muy sencilla u peregrina para que todos nos entendamos (aún sabiendo que no sea dar fidelidad exacta al concepto), una Feature que hace aue se aprovechen mejor los tiempos muertos de las colas de las GPU.

En AMD esta gestión se hace por hardware; y de hecho la propia tecnología de AMD hacía que antes, en DX11 o donde no se aprovecha ese Async Compute, los "tiempos muertos" de sus colas fuesen muy grandes. De ahí que nunca rindiesen para el músculo que supuestamente tenían.

En NVIDIA también se usa el cómputo asíncrono. En CUDA. Pero para hacer los Async Shaders habría que hacer esa gestión por software* (driver). Y la propia NVIDIA reconoce que todavía no lo ha implantado. De todas formas, la tecnología de NVIDIA hace que las tareas que se mandan a las colas de la GPU vayan muy subdivididas en tareas más pequeñas y su gestión hace que haya muchísimo menos "tiempo muerto" entre ellas. De manera que la capacidad para "aprovechar tiempos muertos" seguramente aporte menos mejora de rendimiento que en AMD.

Todo eso, donde se usen Async Shaders. Ahí las AMD ganarán un poco de rendimiento respecto al rendimiento de ellas mismas si no se usase. Y ahí igualmente las NVIDIA, si ganan rendimiento respecto a ellas mismas, seguramente sea poco. Es decir, el empleo de Async Shaders puede hacer que las AMD usen mejor "el músculo" que de verdad tienen y que de otra manera y hasta ahora ha estado totalmente desaprovechado, mientras que las NVIDIA han aprovechado su músculo mejor sin necesidad de eso.

¿Eso hace que AMD sea "muy superior" a NVIDIA en DirectX 12?, no, eso hace que AMD gane rendimiento respecto a ella misma al pasar a ciertos puntos de DirectX 12, tanto que quizá y si no se usan más features de DirectX 12 que esa (recordemos que las AMD son Feature Level 12_0 mientras que las Maxwell de NVIDIA son Feature Level 12_1, es decir, las NVIDIA soportan a nivel hardware más funciones y features de DirectX 12 que las AMD) en algunos títulos las AMD puedan rendir, por fin, al nivel de las NVIDIA o incluso puede que ligeramente mejor.

Como el caso actual de esta beta patrocinada por AMD.

La última versión del AotS con la última versión de drivers de NVIDIA (361.91):

DX11 MonoGPU: 70.9 FPS

DX11-monoGPU_zpsom4egoct.jpg



DX12 MonoGPU: 71.3 FPS

DX12-monoGPU_zpsovddqrv2.jpg



DX12 MultiGPU: 84.0 FPS

DX12-multiGPU_zpsmdmt93nc.jpg


Aunque el MultiGPU es de risa. La carga media en las dos tarjetas es del 50% en cada una, medido con HWInfo64. Evidentemente, no tiene perfil SLI todavía. En DX11 ni siquiera permite activar el modo multi-gpu.

De estos datos, se ve como las 980 Ti ganan un 0,56% al pasar de DX11 a DX12. No es que pierdan rendimiento con DX12, es que al forzarlas a usar un juego con los Async Shaders que ellas aún no soportan por drivers, no ganan prácticamente nada de rendimiento.

Sin embargo, una Fury X en las mismas circunstancias gana más de un 35% de rendimiento. ¿Y para qué?, para quedarse en 74 FPS. 2 más que la 980 Ti.

Es decir, haciendo uso ahora de los Async Shaders, una Fury X consigue remontar su desastroso resultado en la propia Beta patrocinada por AMD y acercarse a una 980Ti. Incluso ganarle por 2 FPS. Que está muy bien y ya era hora. Lo que no era normal es que, hasta ahora, hasta en una beta patrocinada por AMD estuviese tan por debajo de la 980 Ti.

E insisto, ahora habrá que esperar a que NVIDIA saque el soporte en drivers de Async Shaders, que salgan más juegos patrocinados por ellos, que los juegos en DX12 utilicen más features de DirectX 12 y las AMD tengan que emularlas por software mientras las NVIDIA lo hagan a nivel hardware con las features 12_1 (justo al revés que pasa con los Async Shaders), etc. etc.

Todo eso sin contar con que no sabemos qué características y capacidades tendrá respecto a DX12 las nuevas GPUs de ambas marcas que se supone que tienen que empezar a salir a partir de la mitad de este año...

Así que vuelvo a repetir la pregunta: con toda la información que tenemos (o más bien la poca) y sin embargo todas las incertidumbres, ¿se puede decir que DirectX 12 vaya a ser la panacea para las AMD, que vayan estas a superar descaradamente a las NVIDIA o que estas últimas pierdan rendimiento?...

Pues depende.

Si eres una web sensacionalista, de contrastar poco las noticias que públicas o claramente pro-AMD, pues si, lo andas diciendo, "no vas a dejar que la verdad te arruine una buena noticia", que se dice en periodismo.

Si eres alguien más neutral o te basas más en la información, pues igual no puedes todavía ni siquiera todavía afirmar que por fin DX12 nos vaya a traer a los usuarios la sana competencia real que tan bien nos vendría.

Pero bueno, insisto, esto es sólo datos. Y son muy pocos hoy en día. Si alguien quiere correr a vender o comprar una marca o un producto por ello, libre es de gastar su dinero en lo que quiera y no seré to quien se oponga a ello :D

Saludos.

Enviado desde mi SM-G900F mediante Tapatalk

Si DX 12 sigue el camino de AMD, las tarjetas Nvidia la van a pasar mal.

Nvidia executes Asynchronous compute + graphics code synchronously under DX12. Nvidia supports Async Compute through Hyper-Q, CUDA, but Hyper-Q doesn't support the additional wait conditions of barriers (a DX12 requirement). So no, there is no Async Compute + Graphics for Fermi, Kepler or Maxwell under DX12 currently.

Aca te dejo el resto de la explicacion

Spoiler
 
Lo único que hay de DirectX 12 es una beta patrocinada por AMD donde ahora las AMD vuelven a rendir mejor de lo que lo hacían con DirectX 11.

Cuando la beta empezó a probarse, a la salida de Windows 10, los drivers de NVIDIA que estaban demasiado verdes hicieron que las de AMD se acercasen (por fin) al rendimiento de estas. Aunque aún les queda bastante camino que recorrer, durante este tiempo NVIDIA ha ido madurando sus drivers y últimamente estaban recuperando la distancia respecto a AMD.

Así que como la cosa no iba muy bien en la propia Beta patrocinada por AMD y la publicidad esa de "AMD va mejor en DX12" empezaba a difuminarse, en la última actualización de la Beta han metido Async Shaders, una capacidad de las muchísimas que tiene DirectX 12 que hace que se pueda aprovechar para meter en las colas de trabajo de la GPU otros trabajos de cómputo aprovechando cuando de otra forma estarían paradas esas colas esperando a que acabe otra.

Es decir, siguiendo hablando de una manera muy sencilla u peregrina para que todos nos entendamos (aún sabiendo que no sea dar fidelidad exacta al concepto), una Feature que hace aue se aprovechen mejor los tiempos muertos de las colas de las GPU.

En AMD esta gestión se hace por hardware; y de hecho la propia tecnología de AMD hacía que antes, en DX11 o donde no se aprovecha ese Async Compute, los "tiempos muertos" de sus colas fuesen muy grandes. De ahí que nunca rindiesen para el músculo que supuestamente tenían.

En NVIDIA también se usa el cómputo asíncrono. En CUDA. Pero para hacer los Async Shaders habría que hacer esa gestión por software* (driver). Y la propia NVIDIA reconoce que todavía no lo ha implantado. De todas formas, la tecnología de NVIDIA hace que las tareas que se mandan a las colas de la GPU vayan muy subdivididas en tareas más pequeñas y su gestión hace que haya muchísimo menos "tiempo muerto" entre ellas. De manera que la capacidad para "aprovechar tiempos muertos" seguramente aporte menos mejora de rendimiento que en AMD.

Todo eso, donde se usen Async Shaders. Ahí las AMD ganarán un poco de rendimiento respecto al rendimiento de ellas mismas si no se usase. Y ahí igualmente las NVIDIA, si ganan rendimiento respecto a ellas mismas, seguramente sea poco. Es decir, el empleo de Async Shaders puede hacer que las AMD usen mejor "el músculo" que de verdad tienen y que de otra manera y hasta ahora ha estado totalmente desaprovechado, mientras que las NVIDIA han aprovechado su músculo mejor sin necesidad de eso.

¿Eso hace que AMD sea "muy superior" a NVIDIA en DirectX 12?, no, eso hace que AMD gane rendimiento respecto a ella misma al pasar a ciertos puntos de DirectX 12, tanto que quizá y si no se usan más features de DirectX 12 que esa (recordemos que las AMD son Feature Level 12_0 mientras que las Maxwell de NVIDIA son Feature Level 12_1, es decir, las NVIDIA soportan a nivel hardware más funciones y features de DirectX 12 que las AMD) en algunos títulos las AMD puedan rendir, por fin, al nivel de las NVIDIA o incluso puede que ligeramente mejor.

Como el caso actual de esta beta patrocinada por AMD.

La última versión del AotS con la última versión de drivers de NVIDIA (361.91):

DX11 MonoGPU: 70.9 FPS

DX11-monoGPU_zpsom4egoct.jpg



DX12 MonoGPU: 71.3 FPS

DX12-monoGPU_zpsovddqrv2.jpg



DX12 MultiGPU: 84.0 FPS

DX12-multiGPU_zpsmdmt93nc.jpg


Aunque el MultiGPU es de risa. La carga media en las dos tarjetas es del 50% en cada una, medido con HWInfo64. Evidentemente, no tiene perfil SLI todavía. En DX11 ni siquiera permite activar el modo multi-gpu.

De estos datos, se ve como las 980 Ti ganan un 0,56% al pasar de DX11 a DX12. No es que pierdan rendimiento con DX12, es que al forzarlas a usar un juego con los Async Shaders que ellas aún no soportan por drivers, no ganan prácticamente nada de rendimiento.

Sin embargo, una Fury X en las mismas circunstancias gana más de un 35% de rendimiento. ¿Y para qué?, para quedarse en 74 FPS. 2 más que la 980 Ti.

Es decir, haciendo uso ahora de los Async Shaders, una Fury X consigue remontar su desastroso resultado en la propia Beta patrocinada por AMD y acercarse a una 980Ti. Incluso ganarle por 2 FPS. Que está muy bien y ya era hora. Lo que no era normal es que, hasta ahora, hasta en una beta patrocinada por AMD estuviese tan por debajo de la 980 Ti.

E insisto, ahora habrá que esperar a que NVIDIA saque el soporte en drivers de Async Shaders, que salgan más juegos patrocinados por ellos, que los juegos en DX12 utilicen más features de DirectX 12 y las AMD tengan que emularlas por software mientras las NVIDIA lo hagan a nivel hardware con las features 12_1 (justo al revés que pasa con los Async Shaders), etc. etc.

Todo eso sin contar con que no sabemos qué características y capacidades tendrá respecto a DX12 las nuevas GPUs de ambas marcas que se supone que tienen que empezar a salir a partir de la mitad de este año...

Así que vuelvo a repetir la pregunta: con toda la información que tenemos (o más bien la poca) y sin embargo todas las incertidumbres, ¿se puede decir que DirectX 12 vaya a ser la panacea para las AMD, que vayan estas a superar descaradamente a las NVIDIA o que estas últimas pierdan rendimiento?...

Pues depende.

Si eres una web sensacionalista, de contrastar poco las noticias que públicas o claramente pro-AMD, pues si, lo andas diciendo, "no vas a dejar que la verdad te arruine una buena noticia", que se dice en periodismo.

Si eres alguien más neutral o te basas más en la información, pues igual no puedes todavía ni siquiera todavía afirmar que por fin DX12 nos vaya a traer a los usuarios la sana competencia real que tan bien nos vendría.

Pero bueno, insisto, esto es sólo datos. Y son muy pocos hoy en día. Si alguien quiere correr a vender o comprar una marca o un producto por ello, libre es de gastar su dinero en lo que quiera y no seré to quien se oponga a ello :D

Saludos.

Enviado desde mi SM-G900F mediante Tapatalk
Que bien explicado si señor!!
 
Buenas a todos.
Soy nuevo en el foro y me gustaría que me dierais vuestra opinión sobre que hacer y a porque tarjeta gráfica ir.

Actualmente dispongo de un I5 3500K,8Gb de ram,Nvidia Geforce GTX 760 y una fuente Corsair tx650.
Me dispongo a cambiar la gráfica y coger 8Gb de ram más, en cuanto a las gráficas quiero irme a por la Nvidia 970 o la Radeon R9 390, o incluso la 390X.
Lo que me echa para atrás es las altas temperaturas de las Radeon y si la diferencia será muy grande. Gracias.
He estado ojeando y con el directx 12 se ve que las AMD ganan mucha fuerza.
Las tarjetas AMD tienen coolers correspondientes a su TDP. Hay modelos mas frescos que otros, pero ninguna de ensamblador es caliente.
 
Yo tengo una 970, adquirida en verano del 2015 y te puedo asegurar que en su momento tenía las mismas dudas que tu. Al final me decidí por la Nvidia por el tema de consumo, temperaturas y porque encontré un gangazo de segunda mano ;)

Por un lado estoy muy contento con la compra, pero es cierto que ahora mismo parece ser que las 390 tienen más futuro con el tema del DX12 y su mayor cantidad de VRAM. De todos modos, con la salida inminente de las nuevas gráficas de ambas compañías (posibles bajadas de precio) yo me esperaría antes de comprar... si no encuentras una buena oferta, claro.

Estas gráficas son muy caras para lo que ofrecen y más sabiendo que se quedan muy cortas para lo que parece ser que será el futuro: mínimo 2k o VR
 
Si DX 12 sigue el camino de AMD, las tarjetas Nvidia la van a pasar mal.

Nvidia executes Asynchronous compute + graphics code synchronously under DX12. Nvidia supports Async Compute through Hyper-Q, CUDA, but Hyper-Q doesn't support the additional wait conditions of barriers (a DX12 requirement). So no, there is no Async Compute + Graphics for Fermi, Kepler or Maxwell under DX12 currently.

Aca te dejo el resto de la explicacion

Spoiler

Ya lo había leído, pero muchas gracias por el enlace.

La propia NVIDIA ha reconocido que no ha implantado en sus drivers los Async Shaders todavía.

Creo que ahora mismo en NVIDIA deben estar más ocupados puliendo los drivers básicos de Windows 10 que haciendo cualquier otra cosa, que falta les hizo desde la salida. Por eso los retrasos en algún perfil SLI que tardan unas semanas o incluso meses desde el lanzamiento de algún juego, o en la implementación del WDDM 2.0 en Fermi, entre otras cosas. Me imagino que los features a nivel software en NVIDIA irán llegando poco a poco, cuando vayan puliendo el driver.

Pero toda la montaña de publicidad que se está montando por una beta patrocinada por AMD me sorprende. Meten los Async Shaders y por fin AMD gana rendimiento respecto a si misma anteriormente pero con mejoras marginales respecto a "equivalente" de NVIDIA, que aún no tiene implementación de Async Shaders y que tendrá que hacerlo por drivers.

Y recordemos que los Async Shaders ni siquiera están metidos en la descripción necesaria de ningún Feature Level de DX12. Son simplemente una capacidad más. Ya veremos cuando otros juegos, sin patrocinio o con el patrocinio contrario, empiecen a usar otras características de DX12, como el "Conservative Rasterization", cuyo soporte a Tier 1 si está especificado por la propia Microsoft como requisito para el Feature Level 12_1 y que por tanto y por ahora ninguna tarjeta AMD soporta a nivel hardware mientras que si lo hacen las Maxwell de NVIDIA.

Eso por citar sólo otro ejemplo. Y en él, como decía arriba, habrá que ver si las actuales AMD directamente no pueden con esos features del nivel 12_1, si los manejan emulando por software la capacidad, si eso les resta rendimiento, etc. etc.

Para mi, es demasiado temprano para aventurarse a afirmar nada de DirectX 12. Y más teniendo sólo resultados de una beta patrocinada por una de las marcas, y haciéndolo además obviando la realidad comparativa con la otra marca en el mismo benchmark patrocinado.

Los consumidores necesitamos competencia. Competencia real. Que las marcas, dos o incluso más mejor, se tengan que enfrentar buscando mejorar los rendimientos de sus tarjetas y sus precios para superar a los del resto de marcas y ganar mercado. Eso nos bajaría precios y nos daría más y mejores opciones que elegir cuando vamos a comprarnos una tarjeta gráfica. Nos vendría de lujo eso, que ahora mismo estamos muy lejos de que ocurra.

Y si DirectX 12 y los juegos que en él salgan (que no olvidemos que una de las características de DX12, para bien o para mal, es el "close to metal"... lo que implica que los desarrolladores de juegos tendrán que trabajar más para que sus títulos rindan mejor en todas o determinadas arquitecturas, quitando peso a los drivers de los fabricantes) ayuda a que eso ocurra, pues genial para nosotros.

Pero de ahí a que, con lo poco que sabemos ahora, nos dediquemos a coger solo una cantidad parcial de esa poca información que tenemos ahora y a hacer prensa amarilla del mundo del PC engañando a aquellos que no tienen toda la información... pues ahí va un mundo. Y no creo que eso sea lo que nos ayude a los consumidores.

Saludos.

Enviado desde mi SM-G900F mediante Tapatalk
 
Ya lo había leído, pero muchas gracias por el enlace.

La propia NVIDIA ha reconocido que no ha implantado en sus drivers los Async Shaders todavía.

Creo que ahora mismo en NVIDIA deben estar más ocupados puliendo los drivers básicos de Windows 10 que haciendo cualquier otra cosa, que falta les hizo desde la salida. Por eso los retrasos en algún perfil SLI que tardan unas semanas o incluso meses desde el lanzamiento de algún juego, o en la implementación del WDDM 2.0 en Fermi, entre otras cosas. Me imagino que los features a nivel software en NVIDIA irán llegando poco a poco, cuando vayan puliendo el driver.

Pero toda la montaña de publicidad que se está montando por una beta patrocinada por AMD me sorprende. Meten los Async Shaders y por fin AMD gana rendimiento respecto a si misma anteriormente pero con mejoras marginales respecto a "equivalente" de NVIDIA, que aún no tiene implementación de Async Shaders y que tendrá que hacerlo por drivers.

Y recordemos que los Async Shaders ni siquiera están metidos en la descripción necesaria de ningún Feature Level de DX12. Son simplemente una capacidad más. Ya veremos cuando otros juegos, sin patrocinio o con el patrocinio contrario, empiecen a usar otras características de DX12, como el "Conservative Rasterization", cuyo soporte a Tier 1 si está especificado por la propia Microsoft como requisito para el Feature Level 12_1 y que por tanto y por ahora ninguna tarjeta AMD soporta a nivel hardware mientras que si lo hacen las Maxwell de NVIDIA.

Eso por citar sólo otro ejemplo. Y en él, como decía arriba, habrá que ver si las actuales AMD directamente no pueden con esos features del nivel 12_1, si los manejan emulando por software la capacidad, si eso les resta rendimiento, etc. etc.

Para mi, es demasiado temprano para aventurarse a afirmar nada de DirectX 12. Y más teniendo sólo resultados de una beta patrocinada por una de las marcas, y haciéndolo además obviando la realidad comparativa con la otra marca en el mismo benchmark patrocinado.

Los consumidores necesitamos competencia. Competencia real. Que las marcas, dos o incluso más mejor, se tengan que enfrentar buscando mejorar los rendimientos de sus tarjetas y sus precios para superar a los del resto de marcas y ganar mercado. Eso nos bajaría precios y nos daría más y mejores opciones que elegir cuando vamos a comprarnos una tarjeta gráfica. Nos vendría de lujo eso, que ahora mismo estamos muy lejos de que ocurra.

Y si DirectX 12 y los juegos que en él salgan (que no olvidemos que una de las características de DX12, para bien o para mal, es el "close to metal"... lo que implica que los desarrolladores de juegos tendrán que trabajar más para que sus títulos rindan mejor en todas o determinadas arquitecturas, quitando peso a los drivers de los fabricantes) ayuda a que eso ocurra, pues genial para nosotros.

Pero de ahí a que, con lo poco que sabemos ahora, nos dediquemos a coger solo una cantidad parcial de esa poca información que tenemos ahora y a hacer prensa amarilla del mundo del PC engañando a aquellos que no tienen toda la información... pues ahí va un mundo. Y no creo que eso sea lo que nos ayude a los consumidores.

Saludos.

Enviado desde mi SM-G900F mediante Tapatalk

La cosa es que las Nvidia no pueden hacer computo asincrono y gráficos al mismo tiempo, al menos que se cambien algunas cosas.

So all that to say that if you fence often, you can get nvidia hardware to run the Asynchronous + Graphics code synchronously. You also have to make sure you use large batches of short running shaders, long running shaders would complicate scheduling on nvidia hardware and introduce latency. Oxide, because they were using AMD supplied code, ran into this problem in Ashes of the Singularity (according to posts over at overclock.net).

Since AMD are working with IO for the Hitman DX12 path, then you can be sure that the DX12 path will be AMD optimized. That means less fencing and longer running shaders.

Y como dice este hombre, la industria tomara el camino de AMD en DX12. Los juegos que sean de microsoft directamente tomaran este camino, ya que la xbox one usa hardware AMD

Esto no pasaria si las Nvidia tuvieran ACEs como las AMD

Dejo algo mas

Asynchronous compute was turned off for NVIDIA hardware because NVIDIA hardware cannot run Asynchronous Compute + Graphics concurrently and the Ashes of the Singularity Async path makes use of that feature. This can result in negative scaling.

NVIDIA have implemented their version of Async compute in their latest drivers. The problem is that it is an NVIDIA specific implementation which benefits from Compute concurrent executions only (no Compute + Graphics support).

Kollock mentioned that we'd have to talk to NVIDIA about their specific implementation.
 
http://www.overclock.net/t/1590939/...-async-compute-yet-says-amd/720#post_24928610

SM200 (GTX 980 Ti):
22 SMMs
Each SMM contains 128 SIMD cores.
Each SMM can execute 64 warps concurrently.
Each Warp is comprised of 32 threads.
So that's 2,048 threads per SMM or 128 SIMD cores.
2,048 x 22 = 45,056 threads in flight (executing concurrently).

GCN3:
64 CUs
Each CU contains 64 SIMD cores.
Each CU can execute 40 wavefronts concurrently.
Each Wavefront is comprised of 64 threads.
So that's 2,560 threads per CU or 64 SIMD cores.
2,560 x 64 = 163,840 threads in flight (executing concurrently).

GCN3 SIMDs are more powerful than SM200 SIMDs core for core. It takes a GCN3 SIMD less time to process a MADD.

So what is the conclusion?

1. GCN3 is far more parallel.

2. GCN3 has less SIMD cores dedicated towards doing more work. SM200 has more SIMD cores dedicated towards doing less work.

3. If you're feeding your GPU with small amounts of compute work items, SM200 will come out on top. If you're feeding your GPU with large amounts of compute work, GCN3 will come out on top.
 
La cosa es que las Nvidia no pueden hacer computo asincrono y gráficos al mismo tiempo, al menos que se cambien algunas cosas.

So all that to say that if you fence often, you can get nvidia hardware to run the Asynchronous + Graphics code synchronously. You also have to make sure you use large batches of short running shaders, long running shaders would complicate scheduling on nvidia hardware and introduce latency. Oxide, because they were using AMD supplied code, ran into this problem in Ashes of the Singularity (according to posts over at overclock.net).

Since AMD are working with IO for the Hitman DX12 path, then you can be sure that the DX12 path will be AMD optimized. That means less fencing and longer running shaders.

Y como dice este hombre, la industria tomara el camino de AMD en DX12. Los juegos que sean de microsoft directamente tomaran este camino, ya que la xbox one usa hardware AMD

Esto no pasaria si las Nvidia tuvieran ACEs como las AMD

Si, no pueden hacerlo a nivel hardware. Eso nos parece entender a todos.

Pero NVIDIA ya ha dicho que puede hacerlo a nivel software. Y esto no es nuevo, se habló mucho de ello hace seis meses o más.

De hecho, en todas esas covnersaciones hubo gente de AMD que se metió a meter baza. Sin embargo NVIDIA jamás abrió la boca para explicar nada, por lo que lo que se comenta de cómo hace o deja de hacer AMD está más o menos claro, mientras que lo que se comenta de cómo hace o deja de hacer NVIDIA son meras suposiciones, algunas de ellas incluso de ex-empleados (reconocidos así por ellos mismos) de AMD en overclock.net. NVIDIA sólo ha confirmado en un par de veces que aún no da soporte vía drivers a los Async Shaders. Pero viendo la capacidad de cálculo asíncrono que tienen los motores CUDA de NVIDIA y aunque a todos nos parezca meridianamente claro que la gestión de las colas para ello la va a tener que forzar por software en el driver (no como AMD que lo hace por hardware), tampoco sabemos cuánto rendimiento van a poder ganar cuando den soporte en sus drivers a esta característica.

De momento, sin ni siquiera darle soporte, ya no pierden rendimiento respecto a si mismas.

Ahí tienes el ejemplo que yo mismo he medido arriba: el AotS forzando el uso de Async Shaders, aún sin soportarlo NVIDIA, la 980 Ti no pierde rendimiento, y la Fury X sólo sube 2 fps más que la 980 Ti.

Así que tampoco le vale para tanto el dar soporte vía hardware de Async Shaders a la Fury X si hablamos de comparativamente entre marcas.

Para lo que si le vale el soporte vía hardware de Async Shaders es para poder usar mejor la potencia que tenía sin usar antes.

Y ojo, no pensemos que es oro todo lo que reluce para AMD en su propia beta patrocinada...

index.php


index.php


hours before the release of this article we got word back from AMD. They have confirmed our findings. Radeon Software 16.1 / 16.2 does not support a DX12 feature called DirectFlip, which is mandatory and the solve to this specific situation. AMD intends to resolve this issue in a future driver update.

http://www.guru3d.com/articles_pages/ashes_of_singularity_directx_12_benchmark_ii_review,10.html

Que ganarán FPS, pero mira el frametime... no todo son los FPS.

Y vuelvo a lo de antes, no dejemos que un árbol nos impida ver el bosque: es una beta patrocinada por AMD donde se ha activado una capacidad de DirectX 12, una ni siquiera descrita como necesaria en ningún feature level, y obviado casi absolutamente las demás. Habrá que ver cuando los títulos, este y otros, usen las demás características de DirectX 12, cómo quedan las tarjetas de cada marca.

Y eso hablando de las actuales. Que si todo va según lo previsto, en meses deberíamos tener generación nueva en ambas marcas, y de esas si que no sabemos nada ahora mismo sobre cómo van a ir y qué feature levels de DX12 van a soportar cada una.

Si por esta poquísima información, una beta patrocinada usando una característica soportada por uno y por otro no (al menos todavía), donde aún así no son capaces de rascar más que 2 fps de diferencia entre marcas, a alguien le parece sensato y coherente echar las campanas al vuelo pregonando las bondades de una marca y lo tremendamente fatal que le va a ir a la otra, pues ancha es Castilla...

Yo puedo (y de hecho, me gusta) debatir sobre datos. Creo que aprendo bastante de todo el mundo cuando lo hacemos. Pero los datos son estos. Si más allá de esto alguien quiere debatir sobre "fes y fans", ahí lo siento pero no alcanzo, y para ellos el hilo.

Saludos.
 
Si, no pueden hacerlo a nivel hardware. Eso nos parece entender a todos.

Pero NVIDIA ya ha dicho que puede hacerlo a nivel software. Y esto no es nuevo, se habló mucho de ello hace seis meses o más.

De hecho, en todas esas covnersaciones hubo gente de AMD que se metió a meter baza. Sin embargo NVIDIA jamás abrió la boca para explicar nada, por lo que lo que se comenta de cómo hace o deja de hacer AMD está más o menos claro, mientras que lo que se comenta de cómo hace o deja de hacer NVIDIA son meras suposiciones, algunas de ellas incluso de ex-empleados (reconocidos así por ellos mismos) de AMD en overclock.net. NVIDIA sólo ha confirmado en un par de veces que aún no da soporte vía drivers a los Async Shaders. Pero viendo la capacidad de cálculo asíncrono que tienen los motores CUDA de NVIDIA y aunque a todos nos parezca meridianamente claro que la gestión de las colas para ello la va a tener que forzar por software en el driver (no como AMD que lo hace por hardware), tampoco sabemos cuánto rendimiento van a poder ganar cuando den soporte en sus drivers a esta característica.

De momento, sin ni siquiera darle soporte, ya no pierden rendimiento respecto a si mismas.

Ahí tienes el ejemplo que yo mismo he medido arriba: el AotS forzando el uso de Async Shaders, aún sin soportarlo NVIDIA, la 980 Ti no pierde rendimiento, y la Fury X sólo sube 2 fps más que la 980 Ti.

Así que tampoco le vale para tanto el dar soporte vía hardware de Async Shaders a la Fury X si hablamos de comparativamente entre marcas.

Para lo que si le vale el soporte vía hardware de Async Shaders es para poder usar mejor la potencia que tenía sin usar antes.

Y ojo, no pensemos que es oro todo lo que reluce para AMD en su propia beta patrocinada...

index.php


index.php




http://www.guru3d.com/articles_pages/ashes_of_singularity_directx_12_benchmark_ii_review,10.html

Que ganarán FPS, pero mira el frametime... no todo son los FPS.

Y vuelvo a lo de antes, no dejemos que un árbol nos impida ver el bosque: es una beta patrocinada por AMD donde se ha activado una capacidad de DirectX 12, una ni siquiera descrita como necesaria en ningún feature level, y obviado casi absolutamente las demás. Habrá que ver cuando los títulos, este y otros, usen las demás características de DirectX 12, cómo quedan las tarjetas de cada marca.

Y eso hablando de las actuales. Que si todo va según lo previsto, en meses deberíamos tener generación nueva en ambas marcas, y de esas si que no sabemos nada ahora mismo sobre cómo van a ir y qué feature levels de DX12 van a soportar cada una.

Si por esta poquísima información, una beta patrocinada usando una característica soportada por uno y por otro no (al menos todavía), donde aún así no son capaces de rascar más que 2 fps de diferencia entre marcas, a alguien le parece sensato y coherente echar las campanas al vuelo pregonando las bondades de una marca y lo tremendamente fatal que le va a ir a la otra, pues ancha es Castilla...

Yo puedo (y de hecho, me gusta) debatir sobre datos. Creo que aprendo bastante de todo el mundo cuando lo hacemos. Pero los datos son estos. Si más allá de esto alguien quiere debatir sobre "fes y fans", ahí lo siento pero no alcanzo, y para ellos el hilo.

Saludos.
Pones una imagen del frametime de AMD, pero tiene una razon
El directflip no es soportado en los drivers crimson 16.1 y 16. Y causa ese frametime espantoso.
Emular async por software no da mucha ventaja de rendimiento, e incluso no sabemos si lo haran
Hace 1 año que Nvidia dice que hara algo, pero quizas el rendimiento que se gana es nulo y no vale la pena.
Ademas por las limitaciones de hyper Q este "async" no asincrono del todo por software queda mas limitado
Incluso si fuera posible no sabemos si impacta negativamente al rendimiento
 
Pones una imagen del frametime de AMD sin saber el porque.
El directflip no es soportado en los drivers crimson 16.1 y 16.2
Si, si lo sé. Y de hecho lo pongo ahí mismo. Tanto en la cita de lo que pone el artículo como el propio enlace al artículo.

Quizá se te ha pasado leerlo, pero estar, está.

Emular async por software no da mucha ventaja de rendimiento, e incluso no sabemos si lo haran
Sin embargo esto otro no, saberlo no lo sé. Por eso digo que NVIDIA ha dicho que lo hará, no que yo sepa que va a hacerlo. A saber si al final lo hacen o no...

Y la ventaja de rendimiento, como explicaba arriba, no sabemos cuál será. Igual hasta lastra el rendimiento. En ese caso, a NVIDIA le bastaría seguramente con no activar el soporte por software. Ahora mismo (igual esto tampoco lo has leído) ya sin hacerlo, no pierden rendimiento y sólo están 2 FPS por debajo de una Fury X que si lo usa en esa beta patrocinada en concreto.

De igual manera, cuando otros juegos usen cosas como el Conservative Rasterization tampoco sabemos si AMD lo va a emular por software o si no le va a dar soporte, ni como van a afectar estas cosas (descritas en el Feature Level 12_1 de DirectX 12, insisto, cosa que los Async Shaders no aparecen en ningún feature level) al rendimiento entonces de las actuales AMD en los juegos que las usen.

Insisto, es demasiado temprano para afirmar nada, no tenemos apenas datos y los que tenemos son parciales. Y además tenemos nueva hornada de gráficas de ambas marcas a la vuelta de la esquina sobre las que no sabemos nada (hablando de DX12). Atreverse a afirmar "le va a ir mejor a las de esta marca" ahora mismo por un resultado en una beta patrocinada por esa misma marca (ya sea AMD como pudiese ser NVIDIA, me da igual), es simplemente un acto de justificar "fes y fans".

Y ahí reconozco mi limitación, para eso no valgo. Si alguien quieren datos, ahí están. Si alguien quiere fes y fanes, ahí les queda el hilo.

Saludos.
 
Si fuera en DX11, te diría GTX 970.

¿Pero qué pasa? que Nvidia rinde mal en DX12 (hasta pierde rendimiento según que juegos), mientras que en AMD, gana bastante (básicamente por que AMD, como tenía la API Mantle, una API de bajo nivel y similar a DX12 en ciertos aspectos, y por ello tienen los GCN), pues lo han aprovechado muy bien.

Y la R9 390 es la que compite con la GTX 970; la R9 390x compite más bien con la 980.

A día de hoy, hay pocos juegos en DX12, pero como en menos de un año ya van a haber bastantes (igual que cuando salió DX11), mi humilde opinión es que esperes a Pascal y Polaris. Unas arquitecturas totalmente nuevas, que ya estarán sobretodo enfocadas a DX12, y además de más rendimiento (teóricamente), pues más o menos costarán como sus homólogas actuales.
 
Si fuera en DX11, te diría GTX 970.

¿Pero qué pasa? que Nvidia rinde mal en DX12 (hasta pierde rendimiento según que juegos), mientras que en AMD, gana bastante (básicamente por que AMD, como tenía la API Mantle, una API de bajo nivel y similar a DX12 en ciertos aspectos, y por ello tienen los GCN), pues lo han aprovechado muy bien.

Y la R9 390 es la que compite con la GTX 970; la R9 390x compite más bien con la 980.

A día de hoy, hay pocos juegos en DX12, pero como en menos de un año ya van a haber bastantes (igual que cuando salió DX11), mi humilde opinión es que esperes a Pascal y Polaris. Unas arquitecturas totalmente nuevas, que ya estarán sobretodo enfocadas a DX12, y además de más rendimiento (teóricamente), pues más o menos costarán como sus homólogas actuales.
Esperar a pascal y a polaris es lo mas inteligente que alguien puede hacer
 
Esperar a pascal y a polaris es lo mas inteligente que alguien puede hacer

Pero esperaría unas semanas, eso sí (se me olvidó comentarlo), para ver cómo les va a los early adopters (los que compran lo que acaba de salir en tecnología), para ver los posibles fallos o problemas que tengan, además de benchmarks en juegos. Los drivers, los primeros seguro que están mal optimizados (como de costumbre), pero se irá viendo.
 
brutal jajajajajaj

pero las nuevas graficas para cuando salen? Porque no leo más que para mediados de 2016, disculpas si alguien ya lo ha dicho, no me he leido todo
 
Arriba