¡Y dale perico al torno!... :roto2rie::roto2rie:
¿Te has molestado en leer en enlace que ponía?
Es más, te añado:
Es muy interesante lo que cuenta ese usuario... un usuario que trabajó para ATI hace muchos años (hasta la X800, lo cuenta él mismo por otro foro) y que ahora, sin haber conocido entonces la tecnología más allá de ATI (es decir, sin idea de NVIDIA) y después de haber estado desconectado de ese mundo, ahora intenta inferir cómo funcionan las tecnologías actuales basándose solamente en el resultado de la demo de una alfa patrocinada.
Con esto no critico ni mucho menos lo que él dice. Pero si me gusta poner en contexto los datos para que sepamos de lo que estamos hablando. Que dice el refranero que "en el país de los ciegos, el tuerto es el rey", y está claro que yo estoy "más ciego" y tengo menos conocimientos que ese usuario, pero él tampoco vio en su día el total del pastel ni ahora lo está mirando, solo intentando deducirlo de manera que cuadre con el resultado de un test.
E insisto, me vas a perdonar, pero yo soy más empírico. Yo funciono al revés, intento ver a qué resultado teórico me lleva el conocimiento y si este no coincide con la realidad medida asumo que el resultado teórico tenía un error y empiezo de nuevo. A mi (limitación propia, lo siento) no me entra lo contrario: tengo una realidad medida e intento encontrar el razonamiento que justifique ese resultado, sobre todo cuando la "realidad medida" es sólo un diferencial minúsculo de la realidad total y tomada en un entorno preparado (demo de una alfa patrocinada).
Pero si, no por ello voy a decir tampoco que se equivoque totalmente en lo que dice. Es verdad que en los foros en los que lo ha hecho le han llovido tanto gente con experiencia en programación en CUDA rebatiendo su hipótesis de NVIDIA como gente criticándolo "porque si". Probablemente, al presentar cosas que supone como datos (siendo cosas muy distintas ambas) pierde gran parte de la credibilidad que pueda tener para los que entienden la diferencia de valor entre una hipótesis y un resultado, que no es que una valga más que la otra, ambas son importantes por igual y forman parte del proceso empírico, sólo que al no diferenciarlas pues no les haces la justicia que necesitan. Y, probablemente por eso, le estén lloviendo las críticas en muchas ocasiones, más allá de "usuarios cabreados" que no me cabe la menor duda de que también los habrá, puesto que parece que cualquier foro al dar una patada salen "haters".
Yo agradezco lo que él, desde sus suposiciones, comenta. Ya es más de lo que puedo hacer por mi mismo, no tengo su experiencia ni su conocimiento en este campo como para llegar a tantas hipótesis como llega él. Y valoro tener algo parecido a "información", aunque sea así. Pero no puedo dejar de verlo con perspectiva y en su propio contexto:
querer entender el bosque intentando saber cómo es el árbol que tenemos en nuestra espalda, sólo suponiendo su forma por la sombra que vemos en el suelo, y siendo una sombra parcial al faltarnos la otra mitad del árbol... y, sobre todo, siendo esto sólo un árbol más del bosque entero.
Lo de aprovechar más la computación paralela es una capacidad más. Una de las muchas que tendrán a mano los desarrolladores con DX12. Con la facilidad de trabajar más "close to metal" de los desarrolladores en DX12 (que como opinaba atrás, me parece una arma de doble filo para el propio desarrollador), los patrocinios (ya sean de unos o de otros) probablemente puedan ser incluso más influyentes en el desempeño final del juego en un hardware u otro de lo que lo eran ya en DX11.
Pero vuelvo a lo del árbol y el bosque... lo del usuario este está muy bien, pero es que ya puede redundar en el cansinismo el querer coger sus teorías sobre AMD y sus hípotesis sobre NVIDIA basadas en la demo del AOS y extenderlas a todo DirectX 12... porque la computación paralela es sólo un puntito más en el cuadro total de DX12.
Si de verdad fuese un punto tan relevante como él (probablemente sin intención y debido a la repetición de su hipótesis en defensa de si mismo) y otros están empezando a querer señalar, Microsoft a la hora de definir y clasificar los Feature Levels de su propia API, DirectX 12, hubiese cometido un error garrafal. Es decir, la propia Microsoft, trabajando mano a mano con AMD, NVIDIA, Intel y Qualcomm entre otros, a la hora de establecer los requisitos y definiciones de los Feature Levels (soporte de la API a nivel hardware), se habrían pasado la computación paralela (que ya existía, al menos en GCN de AMD y en los CUDA de NVIDIA, por tanto no era algo que no se pudiese comprobar) por el arco del triunfo y relegado a un "papel secundario" a la hora de establecer los Feature Levels. Y a mi se me antoja difícil esto.
Si Microsoft (trabajando codo a codo con la propia AMD entre otros) no ha definido la mayor capacidad (presuntamente de lo que sabemos, y seguramente sea así) a nivel hardware de computación paralela para establecerla como diferenciador en el nivel de soporte vía hardware (es decir, "Feature Level") de las funciones (del total de las funciones más relevantes) de DirectX 12, ha de ser por alguna razón. Y ahí tenemos a las GCN 1.2 con Feature Level 12_0 y a las Maxwell V2 con Feature Level 12_1.
Así que no creo que lo que marque el uso que se pueda dar a esto vaya a depender sólo de "
complots judeo-masónicos de NVIDIA pagando a desarrolladores para que no lo usen o de AMD para que lo usen", sino que, de lo hecho por Microsoft (trabajando con todas las demás), pese a importante, pues al final quizá no será algo "tan importante" en el uso y desempeño total de DX12.
Que estará muy bien que los desarrolladores ahora puedan hacer mejor uso del hardware de AMD del que AMD consiguió, insisto. Y de verdad que deseo con ansia ver que, en al menos los títulos patrocinados por AMD, las tarjetas de estos consigan por fin acercarse al rendimiento de las de NVIDIA, como en esa demo del AOS. ¡Ojalá podamos ver más competencia en el mercado!, en el de gráficas al menos.
Pero no seamos tan imprudentes de olvidarnos del contexto, de olvidarnos de las demás cosas que sabemos de DX12 (que sabemos más que una simple demo del AOS, como las definiciones de Microsoft por ejemplo), de centrarnos tanto en la mitad del árbol que vemos o las hipótesis de alguien que quiere explicarlo que nos olvidemos de que "el todo" va a ser algo más grande. Está genial tener hipótesis y poder estar buenos ratos leyendo y aprendiendo (o escribiendo tochos... perdón por la parte que me toca), y hasta que tengamos más pues mira, algo es algo y menos da una piedra. Pero siempre con los pies en el suelo y sin olvidarnos de todo lo demás, que probablemente nos ayudará a entender el "todo" de DX12 antes y mejor.
Te resumo:
en una demo de algo en estado alfa y patrocinado por AMD y sin soporte de drivers NVIDIA cuando se probó, algunas tarjetas de AMD (las GCN) han ganado rendimiento al pasar de DX11 a DX12, para ponerse a la altura de otras tarjetas NVIDIA (y siguen sin poder superarlas). Por un par de foros hay un antiguo empleado de ATI intentando buscar una hipótesis que justifique ese resultado por la parte de AMD y sin saber nada de NVIDIA, apuntando a la capacidad de computación paralela de las GCN. Y, con todo, el mejor aprovechamiento de la computación paralela no es más que un ínfimo detalle de todo lo que es DX12.
Si eso te da para pensar que las AMD van a ser mucho mejores (cosa que no se ha visto ni en la propia demo esta) y comprar o recomendar la compra de una, pues allá tu.
Yo, personalmente, antes de decidir basándome en DX12, tendría en cuenta más que los resultados de esa demo (como todo lo que digo arriba, que parece que se nos olvida) e incluso mejor ver cómo rinden los juegos DX12 cuando efectivamente salgan (muchos) al mercado.
Pero oye, ancha es Castilla
Saludos.