La misma que antes de Windows 10 y DirectX 12: entre esas dos, la 980 Ti.
Los que quieren ver en lo único parecido a "un dato" los resultados de una demo de un juego en estado alfa y patrocinado por AMD, simplemente son o gente necesitada de noticias de AMD o gente con ganas de debate sin más datos con los que hacerlo que, como es normal, están cogiendo el único detalle que tenemos y centrándose en él como si fuese "el todo"... cayendo en permitir que un árbol nos impida ver el bosque.
Una demo de algo en estado alfa, patrocinado (porque poner tu logo en algo vale muchísimo más dinero que el que nos imaginamos muchos), es sólo algo para mordisquear mientras tenemos títulos en el mercado y rendimiento medible por usuarios. Nada más.
Y en OCN salió de la nada un usuario nuevo que recopiló varias diapositivas de AMD e intentó explicar que, la ganancia de rendimiento al pasar de DX11 a DX12 en esa demo alfa patrocinada era debido a que en DX12 se puede dar un uso más grande a la computación paralela, algo que las gráficas GCN de AMD pueden hacer mucho a nivel hardware debido a su estructura y sus ACEs. Y es posible que ese resultado sea por eso, aunque tampoco hay que olvidar el patrocinio y que los drivers y features de NVIDIA en DX12 están más verdes que su logo (mientras AMD tenía más rodado en ese sentido por lo que ya hicieron para Mantle) y no dan soporte a ese título todavía.
Está claro que GCN va a ganar más relativamente con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela. Punto. Esto es lo que podemos inferir de su capacidad de hardware debido a sus ACEs... siempre y cuando el desarrollador del juego quiera y pueda aprovecharla.
No sabemos cuánto va a ganar NVIDIA porque no tenemos ni idea de cómo funciona su paralelismo dinámico (que hasta ahora sólo usan en CUDA) ni si se va a usar más allá ni cuándo ni cómo será, aunque podamos intentar entender algo de su hardware en ese sentido (que es sólo eso, "intentar entender", porque NVIDIA no ha lanzando una presentación de diapositivas explicándolo ni creo que lo haga... dan bombo y platillo a sus resultados, no a sus cocinas). No obstante, entiendo que al no tener la capacidad por hardware tan alta pues su ganancia relativa con el salto de DX11 a DX12 en los escenarios donde lo que prime sea la computación paralela, será menor.
Pero no perdamos el norte... "ganar más relativamente con el salto de DX11 a DX12" significa sólo eso. Que es una gran noticia para los usuarios, desde luego, porque parece que, por fin, si esos datos pudiesen ser extrapolables al total de escenarios DX12 estaríamos hablando de que, gracias a "ganar más relativamenete", las GCN se pondrían por fin a la altura de las últimas Maxwell V2 (que siguen sin superarlas, ahí está la demo de una alfa patrocinada y las Fury X "sólo" consiguen ponerse por fin a la altura de las 980 Ti... y ese dato es fundamental para la duda que tú te planteas) y, por fin, ya cuanto menos darían competencia. Que ya era hora...
Una pena que, si efectivamente se extrapola ese resultado, hayamos tenido que esperar hasta que los desarrolladores de juegos puedan usar DX12 para poder sacar rendimiento al hardware de AMD, un rendimiento que la propia AMD no ha sabido sacar hasta ahora. Pero bueno, seamos positivos, por fin alguien aunque no sea AMD puede sacárselo.
Pero insisto, no permitamos que un árbol nos impida ver el bosque... El aprovechamiento de la computación paralela es sólo una de las muchas capacidades y mejoras de DirectX 12. No podemos coger una parte y tomarla como "el todo".
No nos olvidemos de que
las GCN son las únicas que ofrecen el Resource Biding Tier 3, pero su Feature Level de DX12 se queda en 11_1 en GCN 1.0, como las Kepler, y 12_0 las GCN 1.1 y 1.2. Las únicas que hay ahora mismo que a nivel hardware cumplan con
DX12 Feature Level 12_1 son las Maxwell V2 (es decir, no "soportan DX12.1", eso no existe todavía como ya expliqué hace tiempo aquí, sino
que soportan a nivel hardware la Conservative Rasterization Tier 1 y las Raster Order Views).
Y todo esto de computación paralela, ROV, Conservative Raster, Resource Biding... todo esto son "herramientas" que, ahora con DX12 y la facilidad de programar dependiendo menos de drivers, ponemos en mano de los creadores de los juegos para que ellos decidan y optimicen qué nos muestran en pantalla y cómo llegan hasta ello.
Así que os pido perdón por ser escéptico todavía y no creerme que está cerca esa competencia en el mercado que tanto ansío... me cuesta mucho creer que, cuando ambas compañías maduren sus drivers (sobre todo los verdes de los verdes) y esos desarrolladores de juegos por fin se pongan a hacer juegos (muchos) basados en DX12, la ganancia relativa final con el salto de DX11 a DX12 vaya a ser mayor en gráficas que soportan a nivel hardware más computación paralela pero se quedan en hardware con capacidad DX12 Feature Level 11_1, que en otras que puedan tener menor capacidad de computación paralela pero a nivel hardware tengan capacidad DX12 Feature Level 12_1. De ser así esto, el que describió los Feature Levels de DX12 se equivocó al ponerles los requisitos y los nombres.
Esto es lo que sabemos y todos (los pocos) datos que tenemos de cómo está la cosa de hardware de GPUS, Windows 10 y DirectX 12.
Lo que pasa es que los hay que están deseando ver cualquier "humo" de AMD para "darse un buen colocón" rojo, no han tardado en coger esos datos y lanzaros a los 4 vientos como si fuesen algo definitivo... En el fondo es algo de agradecer, necesitamos más competencia en el mercado de la que hay actualmente ahora, cierto, y gracias a esas ganas de humo que tienen algunos luego tenemos cosas para reírnos, como lo de "Titan killers", "overcloker's dream", etc. etc.
Por tanto, aunque es muy divertido coger el único dato que tenemos y pese a que sea de una alfa patrocinada (ya sea por una compañía como pudiese ser por otra), y ponernos a elucubrar y debatir (a mi me encanta, y creo que aprendo mucho de todos con ello)... e incluso a los más lanzados a decidir sus futuras compras,
creo que es un poco aventurado por nuestra parte querer adivinar el color del animal teniendo de él sólo un pelo.
Y, volviendo al 4K que tú te planteas, casi mejor irse al SLI si se quiere jugar con todo en ultra (o lo más alto posible) y una buena tasa de FPS. No existe ninguna GPU actualmente que pueda con el 4K a ese nivel de carga por si sola.
Saludos.