• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

¿GTX 960 4GB vs R9 380 4GB?

¿Cojo la NVidia GTX 960 o la AMD R9 380?

  • NVidia GTX 960

    Votos: 22 59,5%
  • AMD R9 380

    Votos: 15 40,5%

  • Votantes totales
    37

javi44

Nuevo
Registrado
27 Ago 2015
Mensajes
14
Puntos
0
Pues eso shurs, ando en una encrucijada, las 2 cuestan más o menos lo mismo y dispongo de poco más de 250€, tampoco me quiero gastar más que si el año que viene las memorias HBM2 y si los chips de 16nm llegan a todas la gráficas me lanzo de cabeza a comprar una nueva gráfica.
Quería preguntaros cual véis mejor pues las 2 son muy parecidas.

Mi mayor dilema es DX12, antes prefería la GTX 960, ya que la tendría con el MGS incluido y era conseguía mas FPS en casi todos los juegos, pero vi un gráfico que mostraba que que varias R9 superaban a las GTX con DX12 (en teoría es lo normal, pues AMD hizo Mantle para sus gráficas y DX12 es 90% Mantle), pero eso sí, en 1 solo juego :roto2rie: por lo que no se si será así en todos los demás, y parece que nadie saca ninguna review ni nada.

Me la quería comprar en estos momentos porque ahora van a salir unos cuantos juegos muy buenos.
Tengo pensado pillar la gráfica en APP Informática que me pilla cerca de casa y no tengo que pagar gastos de envio.

MSI GTX 960: 255,80€ http://www.appinformatica.com/tarjetas-graficas-msi-vga-nvidia-gtx-960-4gd5t-oc-4gb-ddr5.php
Gigabyte R9 380: 250,80€ http://www.appinformatica.com/tarjetas-graficas-gigabyte-vga-amd-radeon-r9-380-gaming-8gb-ddr5.php

Tengo PC de sobras para que no haya bootleneck (i5 4690k, 2x8 GB de Ram, Z97, 700W plus bronze)

Subiré encuesta, y por favor abstenerse todo tipo de fanboys.

Gracias de antemano.
 
Estoy igual que antes, UPeo el hilo.
 
las dos son buenas graficas,pero si te decantas por la de amd evita sapphire es un consejo.
 
el sistema tri-x no era de lo mejor? off-topic:me iba a pillar una 390 de Sapphire jajja
respecto al tema, si te gusta el mgsv pilla la gtx, su vas corto de fuente la gtx, si tienes una buena caja (ventilada) y fuente yo pillaba la 380
 
Yo cambie la 380 de sapphire por la 960.la 380 era un horno jugando pillaba hasta 82 y 62 en reposo.la 960 no llega ni a 64.
 
el sistema tri-x no era de lo mejor? off-topic:me iba a pillar una 390 de Sapphire jajja
respecto al tema, si te gusta el mgsv pilla la gtx, su vas corto de fuente la gtx, si tienes una buena caja (ventilada) y fuente yo pillaba la 380

Sapphire ni me las miró, he leído muy mañas críticas a esta marca. Lo del MGS no me apasiona mucho, pero ya que lo trae me echo unas viciadas (AMD no trae ningún juego, así qie se agradece a NVidia), fuente podría poner incluso una R9 390 (y me quería comprar esa, pero me dí cuenta que no valía la pena), caja una Zalman Z11 Neo muy con 5 ventiladores suplementarios (es muy fresquita).
Las 2 tienen sus Pros y Contras, y me parece muy difíc escoger.
 
pero vi un gráfico que mostraba que que varias R9 superaban a las GTX con DX12 (en teoría es lo normal, pues AMD hizo Mantle para sus gráficas y DX12 es 90% Mantle), pero eso sí, en 1 solo juego :roto2rie: por lo que no se si será así en todos los demás, y parece que nadie saca ninguna review ni nada.

:meparto: :meparto: :meparto:

En cierto modo, tienes razón en lo que dices, ese gráfico es de una demo de un juego en estado alfa patrociado por AMD y con drivers NVIDIA que no le daban soporte y mucho más verdes en DirectX12 puesto que AMD ya tenía gran parte rodada con Mantle.

Aquí el resumen: http://elchapuzasinformatico.com/fo...-X-o-gtx-980ti&p=515265&viewfull=1#post515265

Y volviendo a la duda que planteas, pues entiendo que vas a jugar a 1080p, que tienes fuente para poder con cualquiera de las dos, que el resto del equipo está, como poco, dimensionado para que a ambas les puedas sacar todo el provecho, que tienes buena ventilación en la caja y/o no te importan las temperaturas y el ruido que ellas provocan (ventiladores girando a más RPM), y que los requisitos que esperas de ellas no sean más de los que ambas tarjetas (buenas en su segmento) pueden dar.

Si es así, pues cualquiera de las dos será una buena opción.

Saludos.
 
Si vas a hacer OC la 960 tiene mucho margen de mejora. Si no se lo vas a hacer la 380 rinde un pelín más en general y parece que en Dx12 va a mejorar bastante.

Como te dicen por ahí, cualquiera de las dos son buenas opciones a precios medio decentes.
 
:meparto: :meparto: :meparto:

En cierto modo, tienes razón en lo que dices, ese gráfico es de una demo de un juego en estado alfa patrociado por AMD y con drivers NVIDIA que no le daban soporte y mucho más verdes en DirectX12 puesto que AMD ya tenía gran parte rodada con Mantle.

Aquí el resumen: http://elchapuzasinformatico.com/fo...-X-o-gtx-980ti&p=515265&viewfull=1#post515265

Y volviendo a la duda que planteas, pues entiendo que vas a jugar a 1080p, que tienes fuente para poder con cualquiera de las dos, que el resto del equipo está, como poco, dimensionado para que a ambas les puedas sacar todo el provecho, que tienes buena ventilación en la caja y/o no te importan las temperaturas y el ruido que ellas provocan (ventiladores girando a más RPM), y que los requisitos que esperas de ellas no sean más de los que ambas tarjetas (buenas en su segmento) pueden dar.

Si es así, pues cualquiera de las dos será una buena opción.

Saludos.
Hay un usuario de kitguru que explica el porque ganaban las gráficas de AMD y era por su arquitectura que funcionaban mejor con datos proporcionados en paralelo por decirlo de alguna manera en vez que una cosa a la vez que es en lo que se basan las nvidia y por ello tienen ahora mejor rendimiento cuando por especificaciones las AMD deberían ser muy superiores.
@op Pero claro para cuando los juegos usen directx 12 de verdad, nvidia y AMD ya estarán con las nuevas tandas de tarjetas gráficas asique bueno, yo me cubriría las espaldas con una 380 por si no planeas cambiar de gráfica pronto. Esto ya es opinión personal. tu caja esta guay y es la que me pienso coger también.
Pero ten en cuenta que cojas la que cojas tendrás una genial gráfica!
 
Hay un usuario de kitguru que explica el porque ganaban las gráficas de AMD y era por su arquitectura que funcionaban mejor con datos proporcionados en paralelo por decirlo de alguna manera en vez que una cosa a la vez que es en lo que se basan las nvidia y por ello tienen ahora mejor rendimiento cuando por especificaciones las AMD deberían ser muy superiores.

¡Y dale perico al torno!... :roto2rie::roto2rie:

¿Te has molestado en leer en enlace que ponía?

La misma que antes de Windows 10 y DirectX 12: entre esas dos, la 980 Ti.

Los que quieren ver en lo único parecido a "un dato" los resultados de una demo de un juego en estado alfa y patrocinado por AMD, simplemente son o gente necesitada de noticias de AMD o gente con ganas de debate sin más datos con los que hacerlo que, como es normal, están cogiendo el único detalle que tenemos y centrándose en él como si fuese "el todo"... cayendo en permitir que un árbol nos impida ver el bosque.

Una demo de algo en estado alfa, patrocinado (porque poner tu logo en algo vale muchísimo más dinero que el que nos imaginamos muchos), es sólo algo para mordisquear mientras tenemos títulos en el mercado y rendimiento medible por usuarios. Nada más.

Y en OCN salió de la nada un usuario nuevo que recopiló varias diapositivas de AMD e intentó explicar que, la ganancia de rendimiento al pasar de DX11 a DX12 en esa demo alfa patrocinada era debido a que en DX12 se puede dar un uso más grande a la computación paralela, algo que las gráficas GCN de AMD pueden hacer mucho a nivel hardware debido a su estructura y sus ACEs. Y es posible que ese resultado sea por eso, aunque tampoco hay que olvidar el patrocinio y que los drivers y features de NVIDIA en DX12 están más verdes que su logo (mientras AMD tenía más rodado en ese sentido por lo que ya hicieron para Mantle) y no dan soporte a ese título todavía.

Está claro que GCN va a ganar más relativamente con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela. Punto. Esto es lo que podemos inferir de su capacidad de hardware debido a sus ACEs... siempre y cuando el desarrollador del juego quiera y pueda aprovecharla.

No sabemos cuánto va a ganar NVIDIA porque no tenemos ni idea de cómo funciona su paralelismo dinámico (que hasta ahora sólo usan en CUDA) ni si se va a usar más allá ni cuándo ni cómo será, aunque podamos intentar entender algo de su hardware en ese sentido (que es sólo eso, "intentar entender", porque NVIDIA no ha lanzando una presentación de diapositivas explicándolo ni creo que lo haga... dan bombo y platillo a sus resultados, no a sus cocinas). No obstante, entiendo que al no tener la capacidad por hardware tan alta pues su ganancia relativa con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela, será menor.

Pero no perdamos el norte... "ganar más relativamente con el salto de DX11 a DX12" significa sólo eso. Que es una gran noticia para los usuarios, desde luego, porque parece que, por fin, si esos datos pudiesen ser extrapolables al total de escenarios DX12 estaríamos hablando de que, gracias a "ganar más relativamenete", las GCN se pondrían por fin a la altura de las últimas Maxwell V2 (que siguen sin superarlas, ahí está la demo de una alfa patrocinada y las Fury X "sólo" consiguen ponerse por fin a la altura de las 980 Ti... y ese dato es fundamental para la duda que tú te planteas) y, por fin, ya cuanto menos darían competencia. Que ya era hora...

Una pena que, si efectivamente se extrapola ese resultado, hayamos tenido que esperar hasta que los desarrolladores de juegos puedan usar DX12 para poder sacar rendimiento al hardware de AMD, un rendimiento que la propia AMD no ha sabido sacar hasta ahora. Pero bueno, seamos positivos, por fin alguien aunque no sea AMD puede sacárselo.

Pero insisto, no permitamos que un árbol nos impida ver el bosque... El aprovechamiento de la computación paralela es sólo una de las muchas capacidades y mejoras de DirectX 12. No podemos coger una parte y tomarla como "el todo".

No nos olvidemos de que las GCN son las únicas que ofrecen el Resource Biding Tier 3, pero su Feature Level de DX12 se queda en 11_1 en GCN 1.0, como las Kepler, y 12_0 las GCN 1.1 y 1.2. Las únicas que hay ahora mismo que a nivel hardware cumplan con DX12 Feature Level 12_1 son las Maxwell V2 (es decir, no "soportan DX12.1", eso no existe todavía como ya expliqué hace tiempo aquí, sino que soportan a nivel hardware la Conservative Rasterization Tier 1 y las Raster Order Views).

Y todo esto de computación paralela, ROV, Conservative Raster, Resource Biding... todo esto son "herramientas" que, ahora con DX12 y la facilidad de programar dependiendo menos de drivers, ponemos en mano de los creadores de los juegos para que ellos decidan y optimicen qué nos muestran en pantalla y cómo llegan hasta ello.

Así que os pido perdón por ser escéptico todavía y no creerme que está cerca esa competencia en el mercado que tanto ansío... me cuesta mucho creer que, cuando ambas compañías maduren sus drivers (sobre todo los verdes de los verdes) y esos desarrolladores de juegos por fin se pongan a hacer juegos (muchos) basados en DX12, la ganancia relativa final con el salto de DX11 a DX12 vaya a ser mayor en gráficas que soportan a nivel hardware más computación paralela pero se quedan en hardware con capacidad DX12 Feature Level 11_1, que en otras que puedan tener menor capacidad de computación paralela pero a nivel hardware tengan capacidad DX12 Feature Level 12_1. De ser así esto, el que describió los Feature Levels de DX12 se equivocó al ponerles los requisitos y los nombres.

Esto es lo que sabemos y todos (los pocos) datos que tenemos de cómo está la cosa de hardware de GPUS, Windows 10 y DirectX 12.

Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc. :D

Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras, creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.

Es más, te añado:

Es muy interesante lo que cuenta ese usuario... un usuario que trabajó para ATI hace muchos años (hasta la X800, lo cuenta él mismo por otro foro) y que ahora, sin haber conocido entonces la tecnología más allá de ATI (es decir, sin idea de NVIDIA) y después de haber estado desconectado de ese mundo, ahora intenta inferir cómo funcionan las tecnologías actuales basándose solamente en el resultado de la demo de una alfa patrocinada.

Con esto no critico ni mucho menos lo que él dice. Pero si me gusta poner en contexto los datos para que sepamos de lo que estamos hablando. Que dice el refranero que "en el país de los ciegos, el tuerto es el rey", y está claro que yo estoy "más ciego" y tengo menos conocimientos que ese usuario, pero él tampoco vio en su día el total del pastel ni ahora lo está mirando, solo intentando deducirlo de manera que cuadre con el resultado de un test.

E insisto, me vas a perdonar, pero yo soy más empírico. Yo funciono al revés, intento ver a qué resultado teórico me lleva el conocimiento y si este no coincide con la realidad medida asumo que el resultado teórico tenía un error y empiezo de nuevo. A mi (limitación propia, lo siento) no me entra lo contrario: tengo una realidad medida e intento encontrar el razonamiento que justifique ese resultado, sobre todo cuando la "realidad medida" es sólo un diferencial minúsculo de la realidad total y tomada en un entorno preparado (demo de una alfa patrocinada).

Pero si, no por ello voy a decir tampoco que se equivoque totalmente en lo que dice. Es verdad que en los foros en los que lo ha hecho le han llovido tanto gente con experiencia en programación en CUDA rebatiendo su hipótesis de NVIDIA como gente criticándolo "porque si". Probablemente, al presentar cosas que supone como datos (siendo cosas muy distintas ambas) pierde gran parte de la credibilidad que pueda tener para los que entienden la diferencia de valor entre una hipótesis y un resultado, que no es que una valga más que la otra, ambas son importantes por igual y forman parte del proceso empírico, sólo que al no diferenciarlas pues no les haces la justicia que necesitan. Y, probablemente por eso, le estén lloviendo las críticas en muchas ocasiones, más allá de "usuarios cabreados" que no me cabe la menor duda de que también los habrá, puesto que parece que cualquier foro al dar una patada salen "haters".

Yo agradezco lo que él, desde sus suposiciones, comenta. Ya es más de lo que puedo hacer por mi mismo, no tengo su experiencia ni su conocimiento en este campo como para llegar a tantas hipótesis como llega él. Y valoro tener algo parecido a "información", aunque sea así. Pero no puedo dejar de verlo con perspectiva y en su propio contexto: querer entender el bosque intentando saber cómo es el árbol que tenemos en nuestra espalda, sólo suponiendo su forma por la sombra que vemos en el suelo, y siendo una sombra parcial al faltarnos la otra mitad del árbol... y, sobre todo, siendo esto sólo un árbol más del bosque entero.

Lo de aprovechar más la computación paralela es una capacidad más. Una de las muchas que tendrán a mano los desarrolladores con DX12. Con la facilidad de trabajar más "close to metal" de los desarrolladores en DX12 (que como opinaba atrás, me parece una arma de doble filo para el propio desarrollador), los patrocinios (ya sean de unos o de otros) probablemente puedan ser incluso más influyentes en el desempeño final del juego en un hardware u otro de lo que lo eran ya en DX11.

Pero vuelvo a lo del árbol y el bosque... lo del usuario este está muy bien, pero es que ya puede redundar en el cansinismo el querer coger sus teorías sobre AMD y sus hípotesis sobre NVIDIA basadas en la demo del AOS y extenderlas a todo DirectX 12... porque la computación paralela es sólo un puntito más en el cuadro total de DX12.

Si de verdad fuese un punto tan relevante como él (probablemente sin intención y debido a la repetición de su hipótesis en defensa de si mismo) y otros están empezando a querer señalar, Microsoft a la hora de definir y clasificar los Feature Levels de su propia API, DirectX 12, hubiese cometido un error garrafal. Es decir, la propia Microsoft, trabajando mano a mano con AMD, NVIDIA, Intel y Qualcomm entre otros, a la hora de establecer los requisitos y definiciones de los Feature Levels (soporte de la API a nivel hardware), se habrían pasado la computación paralela (que ya existía, al menos en GCN de AMD y en los CUDA de NVIDIA, por tanto no era algo que no se pudiese comprobar) por el arco del triunfo y relegado a un "papel secundario" a la hora de establecer los Feature Levels. Y a mi se me antoja difícil esto. Si Microsoft (trabajando codo a codo con la propia AMD entre otros) no ha definido la mayor capacidad (presuntamente de lo que sabemos, y seguramente sea así) a nivel hardware de computación paralela para establecerla como diferenciador en el nivel de soporte vía hardware (es decir, "Feature Level") de las funciones (del total de las funciones más relevantes) de DirectX 12, ha de ser por alguna razón. Y ahí tenemos a las GCN 1.2 con Feature Level 12_0 y a las Maxwell V2 con Feature Level 12_1.

Así que no creo que lo que marque el uso que se pueda dar a esto vaya a depender sólo de "complots judeo-masónicos de NVIDIA pagando a desarrolladores para que no lo usen o de AMD para que lo usen", sino que, de lo hecho por Microsoft (trabajando con todas las demás), pese a importante, pues al final quizá no será algo "tan importante" en el uso y desempeño total de DX12.

Que estará muy bien que los desarrolladores ahora puedan hacer mejor uso del hardware de AMD del que AMD consiguió, insisto. Y de verdad que deseo con ansia ver que, en al menos los títulos patrocinados por AMD, las tarjetas de estos consigan por fin acercarse al rendimiento de las de NVIDIA, como en esa demo del AOS. ¡Ojalá podamos ver más competencia en el mercado!, en el de gráficas al menos.

Pero no seamos tan imprudentes de olvidarnos del contexto, de olvidarnos de las demás cosas que sabemos de DX12 (que sabemos más que una simple demo del AOS, como las definiciones de Microsoft por ejemplo), de centrarnos tanto en la mitad del árbol que vemos o las hipótesis de alguien que quiere explicarlo que nos olvidemos de que "el todo" va a ser algo más grande. Está genial tener hipótesis y poder estar buenos ratos leyendo y aprendiendo (o escribiendo tochos... perdón por la parte que me toca), y hasta que tengamos más pues mira, algo es algo y menos da una piedra. Pero siempre con los pies en el suelo y sin olvidarnos de todo lo demás, que probablemente nos ayudará a entender el "todo" de DX12 antes y mejor.

Te resumo: en una demo de algo en estado alfa y patrocinado por AMD y sin soporte de drivers NVIDIA cuando se probó, algunas tarjetas de AMD (las GCN) han ganado rendimiento al pasar de DX11 a DX12, para ponerse a la altura de otras tarjetas NVIDIA (y siguen sin poder superarlas). Por un par de foros hay un antiguo empleado de ATI intentando buscar una hipótesis que justifique ese resultado por la parte de AMD y sin saber nada de NVIDIA, apuntando a la capacidad de computación paralela de las GCN. Y, con todo, el mejor aprovechamiento de la computación paralela no es más que un ínfimo detalle de todo lo que es DX12.

Si eso te da para pensar que las AMD van a ser mucho mejores (cosa que no se ha visto ni en la propia demo esta) y comprar o recomendar la compra de una, pues allá tu.

Yo, personalmente, antes de decidir basándome en DX12, tendría en cuenta más que los resultados de esa demo (como todo lo que digo arriba, que parece que se nos olvida) e incluso mejor ver cómo rinden los juegos DX12 cuando efectivamente salgan (muchos) al mercado.

Pero oye, ancha es Castilla :D

Saludos.
 
¡Y dale perico al torno!... :roto2rie::roto2rie:

¿Te has molestado en leer en enlace que ponía?



Es más, te añado:

Es muy interesante lo que cuenta ese usuario... un usuario que trabajó para ATI hace muchos años (hasta la X800, lo cuenta él mismo por otro foro) y que ahora, sin haber conocido entonces la tecnología más allá de ATI (es decir, sin idea de NVIDIA) y después de haber estado desconectado de ese mundo, ahora intenta inferir cómo funcionan las tecnologías actuales basándose solamente en el resultado de la demo de una alfa patrocinada.

Con esto no critico ni mucho menos lo que él dice. Pero si me gusta poner en contexto los datos para que sepamos de lo que estamos hablando. Que dice el refranero que "en el país de los ciegos, el tuerto es el rey", y está claro que yo estoy "más ciego" y tengo menos conocimientos que ese usuario, pero él tampoco vio en su día el total del pastel ni ahora lo está mirando, solo intentando deducirlo de manera que cuadre con el resultado de un test.

E insisto, me vas a perdonar, pero yo soy más empírico. Yo funciono al revés, intento ver a qué resultado teórico me lleva el conocimiento y si este no coincide con la realidad medida asumo que el resultado teórico tenía un error y empiezo de nuevo. A mi (limitación propia, lo siento) no me entra lo contrario: tengo una realidad medida e intento encontrar el razonamiento que justifique ese resultado, sobre todo cuando la "realidad medida" es sólo un diferencial minúsculo de la realidad total y tomada en un entorno preparado (demo de una alfa patrocinada).

Pero si, no por ello voy a decir tampoco que se equivoque totalmente en lo que dice. Es verdad que en los foros en los que lo ha hecho le han llovido tanto gente con experiencia en programación en CUDA rebatiendo su hipótesis de NVIDIA como gente criticándolo "porque si". Probablemente, al presentar cosas que supone como datos (siendo cosas muy distintas ambas) pierde gran parte de la credibilidad que pueda tener para los que entienden la diferencia de valor entre una hipótesis y un resultado, que no es que una valga más que la otra, ambas son importantes por igual y forman parte del proceso empírico, sólo que al no diferenciarlas pues no les haces la justicia que necesitan. Y, probablemente por eso, le estén lloviendo las críticas en muchas ocasiones, más allá de "usuarios cabreados" que no me cabe la menor duda de que también los habrá, puesto que parece que cualquier foro al dar una patada salen "haters".

Yo agradezco lo que él, desde sus suposiciones, comenta. Ya es más de lo que puedo hacer por mi mismo, no tengo su experiencia ni su conocimiento en este campo como para llegar a tantas hipótesis como llega él. Y valoro tener algo parecido a "información", aunque sea así. Pero no puedo dejar de verlo con perspectiva y en su propio contexto: querer entender el bosque intentando saber cómo es el árbol que tenemos en nuestra espalda, sólo suponiendo su forma por la sombra que vemos en el suelo, y siendo una sombra parcial al faltarnos la otra mitad del árbol... y, sobre todo, siendo esto sólo un árbol más del bosque entero.

Lo de aprovechar más la computación paralela es una capacidad más. Una de las muchas que tendrán a mano los desarrolladores con DX12. Con la facilidad de trabajar más "close to metal" de los desarrolladores en DX12 (que como opinaba atrás, me parece una arma de doble filo para el propio desarrollador), los patrocinios (ya sean de unos o de otros) probablemente puedan ser incluso más influyentes en el desempeño final del juego en un hardware u otro de lo que lo eran ya en DX11.

Pero vuelvo a lo del árbol y el bosque... lo del usuario este está muy bien, pero es que ya puede redundar en el cansinismo el querer coger sus teorías sobre AMD y sus hípotesis sobre NVIDIA basadas en la demo del AOS y extenderlas a todo DirectX 12... porque la computación paralela es sólo un puntito más en el cuadro total de DX12.

Si de verdad fuese un punto tan relevante como él (probablemente sin intención y debido a la repetición de su hipótesis en defensa de si mismo) y otros están empezando a querer señalar, Microsoft a la hora de definir y clasificar los Feature Levels de su propia API, DirectX 12, hubiese cometido un error garrafal. Es decir, la propia Microsoft, trabajando mano a mano con AMD, NVIDIA, Intel y Qualcomm entre otros, a la hora de establecer los requisitos y definiciones de los Feature Levels (soporte de la API a nivel hardware), se habrían pasado la computación paralela (que ya existía, al menos en GCN de AMD y en los CUDA de NVIDIA, por tanto no era algo que no se pudiese comprobar) por el arco del triunfo y relegado a un "papel secundario" a la hora de establecer los Feature Levels. Y a mi se me antoja difícil esto. Si Microsoft (trabajando codo a codo con la propia AMD entre otros) no ha definido la mayor capacidad (presuntamente de lo que sabemos, y seguramente sea así) a nivel hardware de computación paralela para establecerla como diferenciador en el nivel de soporte vía hardware (es decir, "Feature Level") de las funciones (del total de las funciones más relevantes) de DirectX 12, ha de ser por alguna razón. Y ahí tenemos a las GCN 1.2 con Feature Level 12_0 y a las Maxwell V2 con Feature Level 12_1.

Así que no creo que lo que marque el uso que se pueda dar a esto vaya a depender sólo de "complots judeo-masónicos de NVIDIA pagando a desarrolladores para que no lo usen o de AMD para que lo usen", sino que, de lo hecho por Microsoft (trabajando con todas las demás), pese a importante, pues al final quizá no será algo "tan importante" en el uso y desempeño total de DX12.

Que estará muy bien que los desarrolladores ahora puedan hacer mejor uso del hardware de AMD del que AMD consiguió, insisto. Y de verdad que deseo con ansia ver que, en al menos los títulos patrocinados por AMD, las tarjetas de estos consigan por fin acercarse al rendimiento de las de NVIDIA, como en esa demo del AOS. ¡Ojalá podamos ver más competencia en el mercado!, en el de gráficas al menos.

Pero no seamos tan imprudentes de olvidarnos del contexto, de olvidarnos de las demás cosas que sabemos de DX12 (que sabemos más que una simple demo del AOS, como las definiciones de Microsoft por ejemplo), de centrarnos tanto en la mitad del árbol que vemos o las hipótesis de alguien que quiere explicarlo que nos olvidemos de que "el todo" va a ser algo más grande. Está genial tener hipótesis y poder estar buenos ratos leyendo y aprendiendo (o escribiendo tochos... perdón por la parte que me toca), y hasta que tengamos más pues mira, algo es algo y menos da una piedra. Pero siempre con los pies en el suelo y sin olvidarnos de todo lo demás, que probablemente nos ayudará a entender el "todo" de DX12 antes y mejor.

Te resumo: en una demo de algo en estado alfa y patrocinado por AMD y sin soporte de drivers NVIDIA cuando se probó, algunas tarjetas de AMD (las GCN) han ganado rendimiento al pasar de DX11 a DX12, para ponerse a la altura de otras tarjetas NVIDIA (y siguen sin poder superarlas). Por un par de foros hay un antiguo empleado de ATI intentando buscar una hipótesis que justifique ese resultado por la parte de AMD y sin saber nada de NVIDIA, apuntando a la capacidad de computación paralela de las GCN. Y, con todo, el mejor aprovechamiento de la computación paralela no es más que un ínfimo detalle de todo lo que es DX12.

Si eso te da para pensar que las AMD van a ser mucho mejores (cosa que no se ha visto ni en la propia demo esta) y comprar o recomendar la compra de una, pues allá tu.

Yo, personalmente, antes de decidir basándome en DX12, tendría en cuenta más que los resultados de esa demo (como todo lo que digo arriba, que parece que se nos olvida) e incluso mejor ver cómo rinden los juegos DX12 cuando efectivamente salgan (muchos) al mercado.

Pero oye, ancha es Castilla :D

Saludos.
si, te pido disculpas, he leído el mensaje y mire el link por encima y pensé que era la primera noticia que salió hace tiempo sobre esto (esta desde el móvil :( )
Edit: gracias por copiarme la noticia. Después de leer todo, la verdad es que queda todo más claro y me entran dudas (970 o 390 I hate you [emoji14] ). No llevo tanto tiempo en esto del Pc, ya te digo montaré mi primero en unos días y se agradecen diferentes puntos de vista neutrales y contrastes de información.
Venga, acabamos el off-topic que si no Borja nos cierra jajaja
 
Última edición:
si amd ya sabes que es demasiado "optimista" en los analisis que le son favorables.
de todas maneras aunque fueran ciertos nvidia le tocaria mover ficha y aun tiene margen para optimizar sua gpus maxwell que ademas son compatibles al 100% con directx 12.1,en cambio amd (ya sabes que menos las gpus de gama alta el resto en la serie 3 son refritos) tiene menos margen de mejora.
 
Hay un usuario de kitguru que explica el porque ganaban las gráficas de AMD y era por su arquitectura que funcionaban mejor con datos proporcionados en paralelo

No estarás hablando de un usuario llamado Mahigan en overclock.net? por una análisis que hace sobre la arquitectura GCN y la de Maxwell explicando dónde está a ventaja de AMD y dónde la de NVIDIA, que se está haciendo muy famoso. No será este?

http://www.overclock.net/t/1569897/...singularity-dx12-benchmarks/400#post_24321843

http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1140

Es el mismo que Josetortola ha mencionado también, que es el texto que ha añadido.
 
Última edición:
No estarás hablando de Mahigan? por una análisis que hace sobre la arquitectura GCN y la de Maxwell explicando dónde está a ventaja de AMD y dónde la de NVIDIA, que se está haciendo muy famoso. No será este?

http://www.overclock.net/t/1569897/...singularity-dx12-benchmarks/400#post_24321843

http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1140

puede ser, lo escuche en un podcast de YouTubers americanos y de tantas páginas que estoy mirando últimamente de esto, puede ser que sea este.
Lo acabo de mirar y es ese, por? dejo el enlace http://www.dsogaming.com/news/amds-...re-more-friendly-to-parallelism-than-maxwell/
No estarás hablando de Mahigan? por una análisis que hace sobre la arquitectura GCN y la de Maxwell explicando dónde está a ventaja de AMD y dónde la de NVIDIA, que se está haciendo muy famoso. No será este?

http://www.overclock.net/t/1569897/...singularity-dx12-benchmarks/400#post_24321843

http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1140
 
Pillo sitio, estoy seriamente pensando el cambio de una gtx 480 a una 960 de 4gb o quizas alguna amd
 
¡Y dale perico al torno!... :roto2rie::roto2rie:

¿Te has molestado en leer en enlace que ponía?



Es más, te añado:

Es muy interesante lo que cuenta ese usuario... un usuario que trabajó para ATI hace muchos años (hasta la X800, lo cuenta él mismo por otro foro) y que ahora, sin haber conocido entonces la tecnología más allá de ATI (es decir, sin idea de NVIDIA) y después de haber estado desconectado de ese mundo, ahora intenta inferir cómo funcionan las tecnologías actuales basándose solamente en el resultado de la demo de una alfa patrocinada.

Eso de que no ha conocido más alla de la tecnología de ATi no es cierto,y lo de que trabajó en ATI eso no lo acaba de decir bien claro porque dijo que salió de ATi pero no sé si se refiere como empleado o como usuario aunque sí que resalta que no es trabajador de AMD para que nadie se confunda, de hecho el ha estado siguiendo todos estos años la evolución que ha habido e incluso llega a criticar el camino que está tomando la industria y el duo que sigue muchos usuario de quién es mejor y no mirar su interés mientras que los mismo usuarios no esán aprovechando bien su inversión porque tecnologías como Gameworks solo beneficia a las generaciones actuales mientras sí que perjudica a la competencia e incluso a sus series interiors aunque desmiente el mito ese de que Nvidia ha abandonado las Kleper y resalta que si que siguen dándole soporte y no como muchos critican.

Otra cosa que también resalta y he leído mucho( y muy criticado) es lo de que aparezca el logo de Mantle en el juegos, y eso es debido a que empezaron a desarrollar el juego bajo esa API para así posteriormente portarlo a DX12 y eso está en el blog de la empresa http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

hay mucho puntos muy interesantes y los que les guste el tema insisto que lean el hilo (que ya lleva muchas páginas) porque hace muy buenas observaciones.
 
Última edición:
Eso de que no ha conocido más alla de la tecnología de ATi no es cierto,y lo de que trabajó en ATI eso no lo acaba de decir bien claro porque dijo que salió de ATi pero no sé si se refiere como empleado o como usuario aunque sí que resalta que no es trabajador de AMD para que nadie se confunda, de hecho el ha estado siguiendo todos estos años la evolución que ha habido e incluso llega a criticar el camino que está tomando la industria y el duo que sigue muchos usuario de quién es mejor y no mirar su interés mientras que los mismo usuarios no esán aprovechando bien su inversión porque tecnologías como Gameworks solo beneficia a las generaciones actuales mientras sí que perjudica a la competencia e incluso a sus series interiors aunque desmiente el mito ese de que Nvidia ha abandonado las Kleper y resalta que si que siguen dándole soporte y no como muchos critican.

Otra cosa que también resalta y he leído mucho( y muy criticado) es lo de que aparezca el logo de Mantle en el juegos, debido a que empezaron a desarrollar el juego bajo esa API para así posteriormente portarlo a DX12 y eso está en el blog de la empresa http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/
Bueno, digo "ha conocido" por lo que se infiere de su explicación: ahora no es empleado de AMD pero "dejó ATI cuando las X800"... Parece que si trabajó.

Y más allá de debatir quién es, que me parece absurdo, lo que si te digo que si está claro que de esto sabe más que yo.

Yo sólo puntualizó: hace hipótesis y busca la razón para justificar el resultado de la demo de algo en estado alfa y patrocinado, para lo que busca explicación en lo que supone de la computación paralela de las GCN, y sin que sepamos cómo funciona el paralelismo dinámico que aplica NVIDIA en CUDA. Puede que tenga razón y su hipótesis sea cierta, no seré yo quien diga lo contrario sin prueba alguna de ello.

Y añado: el mayor aprovechamiento de la computación paralela posible en DirectX 12 es sólo una de las muchas capacidades y posibilidades. Pero que en la especificación de los niveles de soporte vía hardware ("feature levels") que ha hecho el fabricante de la API, Microsoft, trabajando codo a codo con la propia AMD entre otros, no han considerado esa capacidad de computación paralela. Han considerado los diferentes Tier de otras capacidades. Con ello, probablemente, los que han trabajado construyendo este DirectX 12, que deben saber de él más que ese usuario y que yo seguro, ya nos están diciendo algo sobre lo que "va a importar" realmente esa capacidad.

Y luego, todo esto son capacidades y funciones que DirectX 12 pone en manos de los desarrolladores, que luego ellos usarán o no, mejor o peor.

Así que está bien tener información de la mitad de un árbol de todo el bosque... pero no deberíamos perder la perspectiva.

Saludos.
 
Lo de trabajar tampoco puedo discutirlo mucho más porque si te soy sincero aveces la forma de expresarse algunos en ingles me cuesta cogerlo.


No me confundas, yo aquí no quiero entrar en quién sabe más porque él sabrá mas que tú y tú más que yo y podemos debatir del tema y aprender.

No es absurdo debatir quién es ya que si estamos hablando de lo que él opina, qué menos que sepamos que no es un ciclito.( siempre quise decir esto :jajajano:)

Lo de las hipótesis, sí son suposiciones echas sobre el papél pero fíjate en la última página cuando pcgameshardware hace la misma prueba pero descativando el MSAA y dejando el TAA de repente los resultados cambian .
 
Última edición:
Bueno, digo "ha conocido" por lo que se infiere de su explicación: ahora no es empleado de AMD pero "dejó ATI cuando las X800"... Parece que si trabajó.

Perdón tienes razón, no lo he leído bien y pensaba que había leído todas las páginas. lo he buscado y lo dice, sí que trabajó en ATI Canadá y habla lo de su mujer y lo que dijistes de un principio de que hacía tiempo que no estaba al tanto también es verdad y además ha tenido que corregirse con algunas cosas. Te pido disculpas.
 
Arriba