• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

GTX 1080Ti y Vega 10: Prediciendo precio y rendimiento mediante la minería de datos.

Registrado
8 Dic 2014
Mensajes
30
Puntos
0
Edad
28
Últimamente salen rumores y filtraciones cada dos por tres sobre la gráfica Vega 10 tope de gama y la GTX 1080Ti, a si que puestos a inventar, vamos a hacerlo con un poco de rigor :cool:

Aquí empieza la chapa, para el que le de pereza leer se lo dejo en formato vídeo xD

¿Como vamos a hacer esto? Vamos a basarnos en gráficas anteriores lanzadas por AMD y Nvidia para intentar predecir nuevos lanzamiento.
Para ello he creado una base de datos, con todas las tarjetas gráficas para PC (solo gráficas de escritorio) lanzadas desde 2012 (es decir, serie HD7000 de AMD y GTX 600 de Nvidia).
Por cada gráfica tenemos las siguientes variables almacenadas: Fabricante, año de lanzamiento, serie, modelo, proceso de fabricación (nanómetros), nº de transistores, frecuencias del núcleo (modo boost), frecuencias de la memoria (frecuencia efectiva), núcleos, TMUs, ROPs, Bus, Tflops, TDP, resultado en fire strike y precio de lanzamiento (precio oficial anunciado por la compañía, en dólares y sin impuestos).

Pequeño trozo de la base de datos como ejemplo:

XEIpfd5.png


La idea es, mediante distintos algoritmos, conseguir aprender el patrón que han seguido estos lanzamientos, es decir, ver como en función de las variables el precio y rendimiento aumentan o decrementan y con ello poder predecir uno nuevo, hacer esto a mano nos llevaría muchísimo tiempo, por surte al procesador de nuestro PC se le dan bien hacer estas cosas :D

v2uzhbu.jpg


Por lo tanto, si queremos predecir una nueva gráfica en función de gráficas anteriores necesitamos datos sobre las nueva. Estas son las especificaciones que he usado:
En el caso de la 1080ti es fácil, una Titan X Pascal capada, he usado las últimas filtradas que publicó videocardz:

yE3mhoD.png


En el caso de la tope de gama Vega 10, me he basado en la gráfica Mi25, anunciada en diciembre para el sector profesional y que casi con total seguridad usa el chip Vega 10 tope de gama. Por desgracia no tenemos ni idea de los ROPs o TMUs que puede tener.
7AqTtCy.png


Una vez tenemos todo preparado, toca pasar a los algoritmos que vamos a usar para las predicciones. He usado los algoritmos M5P, y Random Forest. ¿Que hacen estos algoritmos? General árboles de decisión, esto seguramente lo hayáis visto ya, no son más que unos árboles, donde tenemos distintas ramas, y al seguirlas llegamos al precio que tendría la gráfica. Aquí un ejemplo sencillo:

8xdoOAk.png


La matemática que hay detrás de estos algoritmos podéis mirarla en wikipedia si os interesa xD

Para combinar los resultados de ambos algoritmos he usado regresión lineal, que aunque tiene un nombre que acojona, no es más que tratar de aproximar por una línea distintos puntos xD

sTkdnIK.png





PREDICCIÓN DEL PRECIO:

Antes de empezar a usar la bola de cristal primero hay que ver si es una bola de cristal decente o el chino de aliexpress nos ha timado, lo primero que hay que ver es si la base de datos que tenemos sirve para algo, es decir, hay que comprar lo que he dicho al principio, si el precio y rendimiento guardan alguna relación con el resto de variables, ya que si esto no ocurre no podemos predecir anda. Esto se llama coeficiente de correlación y esta imagen lo explica perfectamente.

RKW3lGs.jpg


En este caso la correlación lineal es del 0.9706, esto quiere decir que el precio guarda una gran relación con el resto de variables y por lo que podemos hacer una buena estimación.

Pero, aún no hemos terminado de testear nuestra bola de cristal, antes de usarla con gráficas que no conocemos, vamos a probarlo con gráficas que si conocemos para ver como es la predicción.
A si que vamos a probarlo con todas y cada una de las gráficas de la base de datos, al hacerlo, el error medio cometido es del 21,8%, lo cual no está del todo mal, en una gráfica que cueste 300€ supondría un margen de error de 60€. Pero, para que veáis mejor la precisión de las predicciones aquí esta la predicción para todas las gráficas lanzadas en 2016.

9IcAaq8.jpg


Como veis no está nada mal, la predicción de por ejemplo la RX 480 o la GTX 1080 es casi exacta.

A si que, ahora que hemos comprobado que la bola de cristal funciona, es hora de usarla, vamos a predecir el precio.
Para la 1080ti es muy sencillo, pero en el caso de la Vega 10 tope de gama hay un par de problemas, el primero es que no sabemos ni ROPs de TMUs, y el segundo, es que mientras que Nvidia ha mantenido la nomenclatura de sus series más o menos estable, AMD no, la tope de gama de la serie 200 era la 290X mientras que la de la 300 era la FuryX y no la 390X, por lo que he decido ignorar el nombre del modelo y por supuesto los ROPs y TMUs para predecir la gráfica Vega 10, esto nos hace perder algo de precisión.

fKUtyww.jpg


En el caso de la 1080ti, creo que ese precio no nos sorprendería a nadie, además es lógico, está entre la 1080 y la TitanX, en el caso de Vega 10, personalmente creo que hay un pequeño error a la alta, personalmente apostaría por algo así como 750$, pero bueno, las matemáticas son más imparciales que yo :roto2nuse:

El patrón aprendido, para el que le interese es el siguiente:

1dkpjlH.jpg


Es muy gracioso como el algoritmo lo primero que hace es mirar si es una gráfica Nvidia, y si lo es, aumenta el precio, podríamos decir que matemáticamente se demuestra que Nvidia mete sobreprecios a sus gráficas :sehseh:
Otra cosa interesante, es que por ejemplo el año resta dinero al precio, cosa totalmente lógica, especificaciones que en 2012 eran gama alta, hoy en día son gama baja o media.


PREDICCIÓN DEL RENDIMIENTO:

Como ya estaréis aburridos de leerme, voy a ir más rápido aquí, el resultado en firestrike está medido en un valor relativo a un punto de referencia, y los datos para las gráficas de la base de datos están sacados de gpuboss, que como web para comparar gráficas es una mierda, pero tienen publicada la puntuación en firestrike de casi todas las gráficas modernas.
De nuevo hay que comprobar el coeficiente de relación, en este caso es algo inferior 0.9211. Y el error medio cometido para predecir todas las gpus de la base de datos también es mayor, 34.098%.
Los resultados obtenidos son los siguientes:

KscTfqL.jpg


Pese a que en este caso, la bola de cristal parece un poco más imprecisa, veo el resultado más lógico y probable que el del precio. En las pruebas de rendimiento que hemos visto Doom y battlefront, la gráfica Vega 10 no era mucho más potente que la GTX 1080, era algo así como la GTX 1080 a 2000Mhz y esto es lo que se ha predicho. En el caso de la 1080ti, es lógico que su rendimiento sea ligeramente inferior al de la TitanX ya que sería una TitanX capada.

CONCLUSIÓN:

HyGw1fq.jpg


Los fans de AMD podrán presumir de la calidad/precio y los de Nvidia de que la tienen más grande :sillazo:

Para terminar recordad que esto no es más que unas predicciones hechas mediante distintos algoritmos, eso si, si el día que salgan he acertado, me dedicaré a hacerme millonario con la lotería xD

Espero que os haya parecido interesante el post, como veis esto es muy útil, cuando alguien en una noticia sobre Vega o la 1080ti os diga lo típico de "Enseñame tu bola de cristal" podeís pasarle este post y decirle:

25238113.jpg
 
Muy currado.

A ver en qué queda, aunque parece que tendremos que esperar bastante.
 
Ojala se acertara lo del rendimiento pero lo del precio no jejeje Estoy suscrito a tu canal de youtube hace un rato , me parecen que los videos estan currados , entretenidos y didacticos.
 
Impresionante,menudo curro te has pegado


Enviado desde mi Redmi Note 2 mediante Tapatalk
 
ikergarcia1996 quizás un factor corrector en función del momento en el que se encuentra AMD en el sector pudiese aproximar más el precio aunque hasta que no aparezcan no lo sabremos. Está claro que no es lo mismo presentar una gráfica casi en mínimos históricos de cuota de mercado (20-25% que tienen actualmente) a presentarla hace 8-10 años cuando la cuota era mucho más cercana al 50%. O, al menos, no debería serlo por el bien de su supervivencia en el mercado.
 
Joder, que currada de post!
 
Buen curro, de hecho me a impresionado tanta molestia xD

Yo no creo que vayas a atinar mucho y creo que la intuicion humana basandose como conoce a quien tiene muchas mas posibilidades de atinar, ejemplo: te preguntan por que comeria tu herman@ en un MC Donals y seguro que atinarias al menos en un 80% pero si te preguntan del vecino del tio de tu mejor amigo quizas es mucho mas dificil, yo conociendo a AMD se que no me iré muy lejos aunque soy humano y me puedo equivocar:

1080TI

Precio: 1199€ hasta que AMD saque su tope de gama que no creo que sea la RX490, sino que hay mas...

Rendimiento: creo que conseguira rendir como la titan X o incluso mas ya que la titan X no esta optimizada para juegos y esta si lo estara, algo así como ya pasaba con la 980TI que en benchs sinteticos era peor pero en la mayoria de juegos era mejor que la titan.

RX490 precio: 599€ (o incluso algo menos) el cual bajara a los 2 o 3 meses por culpa de la 1080TI.

Rendimiento: en su salida un 6% inferior a la 1080 en DX11 y hasta un 5% superior en DX12 alcanzando incluso un 10% en Vulkan. (algo asi como ya pasa entre la RX480 y la GTX1060) conforme vaya madurando se pondra mas a la par para que finalmente la supere en todos los juegos o casi todos, osea 4/6 meses despues.

En lo que concuerdo sin OC es en esos 225W pero dudo que salga a semejante frecuencia, creo mas a 1250mhz las referencia y 1300mhz las custom pero eso si, con OC manual alcanaran mas frecuencias que Polaris por lo que no seria raro encontrar algunas que incluso lleguen a los 1600mhz.

Flauros, eres un desastre macho. La Titan X Maxwell no estaba optimizada para juegos?. Si la 980 ti no es más que una Titan X recortada en Cudas y en VRAM. A igualdad de frecuencias la Titan X es más rápida. Simplemente se veía superada con OC porque las 980 Ti subían más que la Titan X de turbina que hacía Thermal Throttling. Precisamente es la primera Titan que no ofrece nada especial más que para gaming.

1199 € la 1080 Ti. Al mismo precio que la Titan xP. Ole!

RX490: 599 €? con 16 GB de HBM2? Otra vez vuelves a los 1600 Mhz como con la RX 480?. Joder Flauros, que el pasado está para aprender de él xD.
 
Lo siento me da pereza hacer de profesor y ponerme a explicar.

1199€ la Titan-X, claro que si: Asus GeForce GTX Titan X 12GB GDDR5 |PcComponentes que la puedas encontrar por ahi de oferta de acuerdo pero no es su precio ademas hablo de precios de salida luego tendran que bajarse los pantalones, digo yo...

Por cierto la 490 saldra con 8G de RAM HBM2 que cundiran como 16g GDDR5.
No puedo contigo xD. Ese enlace es de la Titan X Maxwell. La Pascal sólo la vende directmente Nvidia.

A veces pienso que no eres muy inteligente de verdad (espero no ofender). 8 gigas son 16, claro. Tu credulidad hacia AMD debería analizarla algún experto. Se puede optimizar el uso de la VRAM, pero 8 son 8 y 16 son 16. "Un plato es un plato y un vaso es un vaso".

Hasta luego maestro!!!!
 
CHAPÓ, vaya curro.
 
Flauros, eres un desastre macho. La Titan X Maxwell no estaba optimizada para juegos?. Si la 980 ti no es más que una Titan X recortada en Cudas y en VRAM. A igualdad de frecuencias la Titan X es más rápida. Simplemente se veía superada con OC porque las 980 Ti subían más que la Titan X de turbina que hacía Thermal Throttling. Precisamente es la primera Titan que no ofrece nada especial más que para gaming.

1199 € la 1080 Ti. Al mismo precio que la Titan xP. Ole!

RX490: 599 €? con 16 GB de HBM2? Otra vez vuelves a los 1600 Mhz como con la RX 480?. Joder Flauros, que el pasado está para aprender de él xD.

No puedo contigo xD. Ese enlace es de la Titan X Maxwell. La Pascal sólo la vende directmente Nvidia.

A veces pienso que no eres muy inteligente de verdad (espero no ofender). 8 gigas son 16, claro. Tu credulidad hacia AMD debería analizarla algún experto. Se puede optimizar el uso de la VRAM, pero 8 son 8 y 16 son 16. "Un plato es un plato y un vaso es un vaso".

Hasta luego maestro!!!!

Con que 1199€ es el precio de la Titan X Pascal...
cUhtD3x.png
 
Última edición:
eres tu el del video?
 
Le he puesto el link de maxwell por que creia que valian lo mismo y veo que me he quedado corto, menudo zask en la boca xDDD.

Por lo de la ram es que me da pereza explicarselo pero es que no lo coje, son 8g HBM2 al menos segun filtraciones, los cuales son el doble de eficientes, hacen que un juego que te consume 4g te consuma 2 por lo que es como si tuvieras 16g Gddr5 pero el tio no lo coje...

Bueno eso es el marketing, en la realidad el ahorro no es tan bestia, pero si que es algo muy interesante, aunque habrá que ver si no repercute negativamente en los frametimes por que tenga que estar cargando todo el rato datos que no había cargado antes para ahorrar, yo si fuera AMD lo deshabilitaría por defecto y solo empezaría a usarlo cuando la gráfica tiene la memoria casi llena. Aunque claro, igual no han hecho un algoritmo muy agresivo y no produce ningún tipo de tirón por tener que cargar cosas que faltan (me viene ahora a la cabeza el tirón que pegaba la gráfica en el vídeo de Doom).

eres tu el del video?

Si :D
 
Le he puesto el link de maxwell por que creia que valian lo mismo y veo que me he quedado corto, menudo zask en la boca xDDD.

Por lo de la ram es que me da pereza explicarselo pero es que no lo coje, son 8g HBM2 al menos segun filtraciones, los cuales son el doble de eficientes, hacen que un juego que te consume 4g te consuma 2 por lo que es como si tuvieras 16g Gddr5 pero el tio no lo coje...

Me has puesto el link de la Maxwell porque no tenías ni puta idea de que la Titan XP sólo se vende en la store de Nvidia, no nos cuentes historias. Porque no sé si tienes 13 años, que lo he llegado a pensar, o es que eres muy ignorante. Por no saber no sabías ni que la Titan X usa GDDR5X. Vamos a leer al Raja éste famoso:

"Raja Koduri – Arquitecto jefe de Radeon Technologies Group, AMD

Con respecto a la caché de alto ancho de banda, desde una perspectiva para juegos, miramos todos los juegos modernos, los grandes juegos que hacen un uso fuerte de la memoria, y una de las cosas que miramos es la utilización de la VRAM – memoria de gráfica -. Miramos cuánta es la VRAM que el juego asigna. Así que si el juego dice que necesita 4 GB de memoria, cuando miramos en realidad cuánto de esa memoria se utiliza para procesar píxeles, encontramos que muchos juegos, en realidad la mayoría de los juegos, no usan más del 50% de lo que asignan.

Esto se debe a que la arquitectura GPU actual/antigua no le da flexibilidad para mover la memoria en granularidad fina (Adaptive fine-grained data movement). Así que con VEGA y con el High Bandwidth Cache y el controlador HBC, hará que los juegos utilicen la cantidad de frame-buffer que tiene mucho más eficiente. Tan eficazmente se pueda pensar de ella que VEGA duplicará su capacidad de memoria para los juegos."

Brad Chacos – Editor principal, PC World
Así que, básicamente, si un juego ahora mismo dice que utiliza 4 GB de VRAM, eso son en realidad 2 GB de VRAM, y estás diciendo que esa gráfica VEGA en realidad destinará 2 GB.


Donde cojones menciona a la GDDR5?. Esto de la asignación de vram viene siendo así desde siempre. La gpu si tiene memoria disponible la pilla aunque no la esté usando al 100%. Y pasa en AMD como en Nvidia. El consumo de VRAM que vemos con el Afterburner no es consumo real, es memoria asignada. Hacer una asignación adecuada al uso no tiene que ver ni con HBM2, ni GDDR5, ni ostias, es cuestión de tener unas controladoras que asignen lo que se usa. Punto.
 
Bueno eso es el marketing, en la realidad el ahorro no es tan bestia, pero si que es algo muy interesante, aunque habrá que ver si no repercute negativamente en los frametimes por que tenga que estar cargando todo el rato datos que no había cargado antes para ahorrar, yo si fuera AMD lo deshabilitaría por defecto y solo empezaría a usarlo cuando la gráfica tiene la memoria casi llena. Aunque claro, igual no han hecho un algoritmo muy agresivo y no produce ningún tipo de tirón por tener que cargar cosas que faltan (me viene ahora a la cabeza el tirón que pegaba la gráfica en el vídeo de Doom).



Si :D

Ostia pues me subscribí el otro día!! No sabía que eras tú, tu nombre lo veía por disqus en los post pero no pensaba que eras tú jeje
Así que haciendo ing de software.. yo estoy en 1 de informática y estoy de finales[emoji23]

El día que te plantes a hacer vídeos de algorítmica.. no hay ninguno por youtube


Enviado desde mi iPhone utilizando Tapatalk
 
Subscribiros al canal de Iker, a muchos les vendria bien un repasito en temario de tarjetas graficas y el lo explica estupendamente.

Enviado desde mi H60-L04 mediante Tapatalk
 
Arriba