• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

[Hilo oficial] AMD Vega

Una duda, el "2" que metes por ahí en la fórmula es por lo de "double data rate" de las DDR, ¿no?, pero para las HBM el numerito ¿debería ser distinto?. Me da que pueden ir por ahí las cosas. Por otra parte, la frecuencia de reloj de las memorias HBM2 me cuesta encontrarlas. Aquí dice 1000MHz, 2000MHz efectivos, que no entiendo muy bien (supongo 1000MHz), y da un ancho de banda de 512 Gb/s (¿el "numerito" de que hablaba antes puede ser un 4?)

Edito, sí, es algo distinto. En este vídeo lo explica muy bien. Cuando tenga tiempo me extiendo en el cálculo.


Y las características de VEGA actualizadas por Videocardz (que puede contener errores todavía)

4bsFV34.png

El problema que veo en ese vídeo es que la información que toma de Videocardz está mal en el caso de la Fury, el Memory Bus Width es 2048-bit (no 4096-bit) por eso luego tiene que inventarse que están en pareadas y meterle un 2 a la división. Luego al calcular la de Vega, el Memory Bus está bien pero arrastra el error de dividir por 2. No tiene sentido que la VEGA de 8GB tenga menos ancho de banda que la Fury con 4GB (479GB/s vs 512GB/s). Esos 479GB/s deberías multiplicarlo por 2, dando 958GB/s que se acerca más a los 1024GB/s que ponía yo (pues presuponía las memorias a 500MHz).
 
Última edición:
El quid de la cuestión está en el cálculo de la velocidad de reloj 'efectiva', que no es igual para GDDR5, GDDR5X, HBM1 y HBM2. GDDR5X tiene el doble que GDDR5x y HBM2 el doble que HBM1 si se usan las mismas fórmulas. De alguna manera, hay un factor multiplicador que depende de la arquitectura. No ando muy puesto en microarquitectura de GPUs, por lo que tendré que buscar bastante, pero al final debería llegarse a algo así:


JYzCGKU.png

mhmyZA5.png


(de aquí)

Debajo de cada tipo de memoria hay un multiplicador que varía. Hay algo que hace que la memoria efectiva de GDDR5X sea el doble que la que saldría para GDDR5, y lo mismo entre HBM1 y HBM2). Y la verdad que cuadra con lo que aparece por todos sitios.

Todas las Fury, Fury X y Fury X2 tienen HBM1 (multiplicador x2 para calcular la frecuencia de reloj efectiva) y las VEGA HBM2 (multiplicador x4 para calcular la frecuencia de reloj efectiva).

Para el cálculo del ancho de banda, no hay duda, es la velocidad 'efectiva' multiplicada por el tamaño del bus de memoria (bits), que se divide por 8 para pasarlo a bytes, y se divide por mil para que al final las unidades sean Gb/s:

Ancho de banda (Gb/s) = Reloj de Memoria Efectiva (MHz) x Bus de Memoria (bits/ciclo) / 8 (bits/byte) / 1000 (Mb/Gb)
(1Hz=1 ciclo/s)
Es en el cálculo de la frecuencia de reloj de Memoria 'Efectiva' donde hay discrepancias. En cuanto tenga la respuesta, la pondré aquí.

Edit 1:
Para la GDDR5X, ya lo tengo:

GDDR5X targets a transfer rate of 10 to 14 Gbit/s per pin, twice that GDDR5. Essentially, it provides the memory controller the option to use either a double data rate mode that has a prefetch of 8n, or a quad data rate mode that has a prefetch of 16n. GDDR5 only has a double data rate mode that has an 8n prefetch.

Qué traducido,
GDDR5X se dirige a una velocidad de transferencia de 10 a 14 Gbit / s por pin, dos veces la de GDDR5. En esencia, se proporciona al controlador de memoria la opción de utilizar ya sea un modo de doble velocidad de datos que tiene una captura previa de 8n, o un modo de velocidad de datos quad que tiene una captura previa de 16n. GDDR5 sólo tiene un modo de doble velocidad de datos que tiene una captación previa 8n.

De la definición de GDDR5 en GDDR5 SDRAM - Wikipedia

Es decir, hay que multiplicar por dos más la frecuencia efectiva que nos da usando el mismo método que para calcular la GDDR5. Me queda la HBM1 y 2.
 
Última edición:
Podrás seguir en directo la conferencia de AMD en la Computex 2017 en Taipei, el 31 de mayo de 2017 a las 4:00 (GMT+2).
AMD at Computex | AMD

También desde la web (probablemente): El Chapuzas Informatico


25094621863l.jpg


Se hablará de Vega, Ryzen y Epyc. Tendrá una duración de 1 hora, encabezada por Lisa Su (AMD CEO) y Jim Anderson (vicepresidente senior y gestor general).

25094621541l.jpg


Fuente: Overclock3d.net.
 
AMD Radeon Vega Frontier (Profesional) se lanzará el 27 de junio.

30231126654l.jpg


AMD Radeon RX Vega se lanzará en SIGGRAPH 2017.

s17_fb_1200x630.png


Mostraron dos Radeon RX Vega moviendo Prey, pero no mostraron el contador de FPS.

Fuente: Overclock3d.net

 
si tendrán razón algunos al final...
...VEGA son los padres...
 
A mi tanto retraso me da que solo beneficia a Nvidia, si es que ni hay stock de la rx 580, parece que sacaron justo para que aguantase hasta ahora y nada, a seguir esperando

Enviado desde mi Redmi 4 mediante Tapatalk
 
El problema de los continuos retrasos es la falta de memorias HBM2 suficientes

Enviado desde mi Nexus 5X mediante Tapatalk
 
Que la saquen en GDDR5X y tirando

Enviado desde mi ONEPLUS A3003 mediante Tapatalk
 
Superar a la 1070, 1080 por 400 y 500€ seria lo suyo en el mes de febrero, marzo, abril...

Ahora mismo van a tener que ser muy eficientes, potentes y económicas. Confío en que son los primeros en querer hubicar bien su producto, y eso pasa por ser críticos y buscar beneficiarlo con respecto a la competencia.

Si alguna Vega tuviera un tdp de 250W iría a por ella. Y si no me quedaré con mi 480
 
El hilo está fenomenal. Hay otros como el del tal el otro lado . net que da penita de leer los análisis y comentarios.

No acabo de aceptar que una gpu venga a 1525Mhz y otra a 1600Mhz. Eso es un overclock que se puede hacer tranquilamente a una gpu de 75Hz. No me lo trago.

Como tampoco me parece lógico que las 3 vengan a 275W. Además de no necesitar más potencia para hacer un leve OC sería también ilógico que una gpu a sólo 75Hz por encima de la actual Polaris (que ya vienen a 1425Mz las 580) pasara a consumir la friolera de 100/75W de media por ese incremento de Hz y por la memoria HBM2. Me parece mucho, aunque el chip vega y polaris sean distintos.

Para mi si no hay una Vega de 250W, otra en 275, otra en 300, y ya pasar a la FE de 325 y la watercooled de 375...eso tendría sentido. No tiene sentido que sean todas 275W y que haya 500€ de diferencia entre la Frontier Edition de 300 y 375W, o los que sean.

Al menos en mi opinión.

Por último, no entendería estos precios a pocos meses de la salida de Volta. En absoluto tiene sentido todas a 275W por estos precios y sin acabar de destrozar a las Pascal, aunque posiblemente una gama baja de Vega que se acerque a la 1080 por 430€ sería una buena opción...pero con poca vigencia. No casan estas combinaciones para mi de precio-consumo-rendimiento. No tiene mucho sentido por ahora. Son rumores a fin de cuentas.
 
Última edición:
El hilo está fenomenal. Hay otros como el del tal el otro lado . net que da penita de leer los análisis y comentarios.

No acabo de aceptar que una gpu venga a 1525Mhz y otra a 1600Mhz. Eso es un overclock que se puede hacer tranquilamente a una gpu de 75Hz. No me lo trago.

Como tampoco me parece lógico que las 3 vengan a 275W. Además de no necesitar más potencia para hacer un leve OC sería también ilógico que una gpu a sólo 75Hz por encima de la actual Polaris (que ya vienen a 1425Mz las 580) pasara a consumir la friolera de 100/75W de media por ese incremento de Hz y por la memoria HBM2. Me parece mucho, aunque el chip vega y polaris sean distintos.

Para mi si no hay una Vega de 250W, otra en 275, otra en 300, y ya pasar a la FE de 325 y la watercooled de 375...eso tendría sentido. No tiene sentido que sean todas 275W y que haya 500€ de diferencia entre la Frontier Edition de 300 y 375W, o los que sean.

Al menos en mi opinión.

En primer lugar no puedes comparar arquitecturas distintas, las Fury tenían también un TDP de 375W y solo van a 1050MHz, no son comparables.

El TDP tampoco es algo tan importante ni dramático, indica la potencia de diseño, pero no hay una relación TDP consumo estricta, sino que tiene que ver con las conexiones de alimentación que va a necesitar:

- Una gráfica con TDP inferior a 75W se alimenta solo con el PCIE de la placa

- Una gráfica de TDP hasta 150W con PCIE+6pin

- Una gráfica de TDP hasta 225W con PCIE+8pin o +2*6pin

- Una gráfica de TDP hasta 300W con PCIE+6+8pin bastaría

- Una gráfica de TDP hasta 375W con PCIE+2*8pin

Entre las diferentes Vega no solo vas a tener 75MHz de diferencia. Posiblemente vengan con diferentes cantidades de VRAM y de StreamProcessors, lo mismo que ya pasó con las Fury.

Enviado desde mi Nexus 5X mediante Tapatalk
 
Es que el TDP es el tipical power consumption...algo así como el valor average del consumo que monitorizas con el gpuz.

Mi 480 tiene 150w de TDP. Casualmente, tras horas de juego, la media de su consumo se suele situar entre 130/160W, en valores min/max.

Los picos pueden llegar a 300w con un vcore subido bastante hasta 1410Mhz, que realmente lo hago muy poco...realmente los picos en stock llegan como mucho a 240W, y son eso: picos momentáneos. Normalmente se maneja entre 75W y 150W. A plena carga sí supera normalmente los 200W

Pero a lo que iba: me parece una burrada que una gpu de hoy día, después de ver que la 480 para 1080p (mainstream total) es perfecta, tener que pasar al doble de gasto energético (Vega 300W = 200% de los 150W de Polaris10) por mejorar el rendimiento entre un 20 ...25% como mucho.

Mucho gasto energético.
 
Es que el TDP es el tipical power consumption...algo así como el valor average del consumo que monitorizas con el gpuz.

Mi 480 tiene 150w de TDP. Casualmente, tras horas de juego, la media de su consumo se suele situar entre 130/160W, en valores min/max.

Los picos pueden llegar a 300w con un vcore subido bastante hasta 1410Mhz, que realmente lo hago muy poco...realmente los picos en stock llegan como mucho a 240W, y son eso: picos momentáneos. Normalmente se maneja entre 75W y 150W. A plena carga sí supera normalmente los 200W

Pero a lo que iba: me parece una burrada que una gpu de hoy día, después de ver que la 480 para 1080p (mainstream total) es perfecta, tener que pasar al doble de gasto energético (Vega 300W = 200% de los 150W de Polaris10) por mejorar el rendimiento entre un 20 ...25% como mucho.

Mucho gasto energético.
Insisto en lo que te he dicho. TDP es Thermal Design Power, no typical power consumption. Es un valor de diseño, es decir, que tanto las conexiones, ventiladores, disipador, etc... están diseñados para trabajar a ese consumo como máximo y de ahí que las conexiones vayan como te he explicado.

Una Vega (o una Fury que es de quien "desciende") tiene un TDP de 375W porque usa 2x8pin para alimentarse, pero el consumo stock se sitúa entorno a los 220W (se puede bajar con undervolt), para llegar a 300W tienes que meterle un OC bastante alto, con voltaje a tope y Power Limit a tope. Y te hablo de primera mano porque tengo una Fury y se supone que las Vega serán algo (bastante) más eficientes (de hecho corren a 1600MHz cuando la Fury va a 1050MHz con misma distribución de 4096 StreamProcessors, así que van a ir entorno a un 50% más rápidas o más).

La gente se asusta viendo esos TDP como pasaba con la Fury, afirmando sin pruebas que sería un "horno" cuando en realidad son de las gráficas mejor ventiladas del mercado (pues están preparadas para funcionar por encima de los 300-350W, aunque luego las uses a solo 220W).

Esos picos que dices de tu RX 480 no se donde los ves. Yo uso HWinfo64 y hay que fijarse en Chip Power consumption (que auna las memorias y el chip) pues los valores de Core Power consumption pegan unos bandazos sin sentido pero son instantáneos.

En cuanto a potencia... ¿Un 20-25% más? Si eso es lo que da la Fury y tiene 2 años a sus espaldas. Yo calculo que van a estar bastante más arriba y sobretodo jugando en 2k y 4k donde el repaso va a ser morrocotudo.

Enviado desde mi Nexus 5X mediante Tapatalk
 
Es que el TDP es el tipical power consumption...algo así como el valor average del consumo que monitorizas con el gpuz.

Mi 480 tiene 150w de TDP. Casualmente, tras horas de juego, la media de su consumo se suele situar entre 130/160W, en valores min/max.

Los picos pueden llegar a 300w con un vcore subido bastante hasta 1410Mhz, que realmente lo hago muy poco...realmente los picos en stock llegan como mucho a 240W, y son eso: picos momentáneos. Normalmente se maneja entre 75W y 150W. A plena carga sí supera normalmente los 200W

Pero a lo que iba: me parece una burrada que una gpu de hoy día, después de ver que la 480 para 1080p (mainstream total) es perfecta, tener que pasar al doble de gasto energético (Vega 300W = 200% de los 150W de Polaris10) por mejorar el rendimiento entre un 20 ...25% como mucho.

Mucho gasto energético.
Si realmente tiene picos de 300W y la gpu no dispone 6+8pin almenos, yo controlaria esos picos puesto que se traduce en que supera el standar pcie y lo que no le llegue de los conectores pcie lo pedira a la placa, superando los 75W y siendo posible qu egenere problemas. Esto ya se vio con las primeras hornadas de 480.

Sobre el rendimiento de VEGA, sin tener que hacer calculos voy a presuponer que estaran por encima de la fury X, de otra manera no lo entendiria, sacar una nueva tope de gama que no supere a la anterior lo veria una tonteria.

Sobre el consumo de la fury, yo he intentado ponerla a esos 375w y no lo he conseguido aun, con la segunda bios (+50%PL) el voltaje casi al maximo y el PL+50% (100% mas en total).
 
Si realmente tiene picos de 300W y la gpu no dispone 6+8pin almenos, yo controlaria esos picos puesto que se traduce en que supera el standar pcie y lo que no le llegue de los conectores pcie lo pedira a la placa, superando los 75W y siendo posible qu egenere problemas. Esto ya se vio con las primeras hornadas de 480.

Sobre el rendimiento de VEGA, sin tener que hacer calculos voy a presuponer que estaran por encima de la fury X, de otra manera no lo entendiria, sacar una nueva tope de gama que no supere a la anterior lo veria una tonteria.

Sobre el consumo de la fury, yo he intentado ponerla a esos 375w y no lo he conseguido aun, con la segunda bios (+50%PL) el voltaje casi al maximo y el PL+50% (100% mas en total).
Es que es diseño térmico el TDP, no consumo típico que cree la gente. Es como pensar que un coche por tener más cilindrada consume más... Cuando tienes coches con motores 1.6 que pasan de los 8-10 litros mientras que otros con 2.0 no llegan a los 5.5-6 litros a la misma velocidad.

Enviado desde mi Nexus 5X mediante Tapatalk
 
Es que es diseño térmico el TDP, no consumo típico que cree la gente. Es como pensar que un coche por tener más cilindrada consume más... Cuando tienes coches con motores 1.6 que pasan de los 8-10 litros mientras que otros con 2.0 no llegan a los 5.5-6 litros a la misma velocidad.

Enviado desde mi Nexus 5X mediante Tapatalk

Entonces, ¿cómo es posible que, sistemáticamente, siendo un usuario que monitoriza siempre los resultados del uso de la gpu con Afterburner (principalmente), que la media de consumo en watts esté alrededor de su TDP?

Nunca he querido decir que TDP sea el consumo típico. Creo que el matiz es que el diseño térmico se ajusta a ese consumo típico. Los picos de 200W se dan siempre que haces algo de OC. El que llega a 300 watts es cuando además subes el vCore y el Power Limit para alcanzar el máximo OC estable. Ahí es cuando tira del todo de la alimentación por el cable 6 u 8 pin (no recuerdo cual lleva).
 
Entonces, ¿cómo es posible que, sistemáticamente, siendo un usuario que monitoriza siempre los resultados del uso de la gpu con Afterburner (principalmente), que la media de consumo en watts esté alrededor de su TDP?

Nunca he querido decir que TDP sea el consumo típico. Creo que el matiz es que el diseño térmico se ajusta a ese consumo típico. Los picos de 200W se dan siempre que haces algo de OC. El que llega a 300 watts es cuando además subes el vCore y el Power Limit para alcanzar el máximo OC estable. Ahí es cuando tira del todo de la alimentación por el cable 6 u 8 pin (no recuerdo cual lleva).

Tienes que activar la monitorización de GPU Chip Power que es el valor de consumo de la gráfica en su conjunto y es bastante estable. Si después de monitorizar un rato te fijas por ejemplo en GPU Core Power es posible que te lleves alguna sorpresa como que el máximo se acerque a los 300W, mientras que el máximo del GPU Chip Power no había pasado de 200W.

Las gráficas AMD por lo general vienen con un voltaje bastante alto (he tenido 2 de generaciones diferentes y en ambas pasaba), de hecho con la Fury la estamos usando con undervolt todos los compañeros, con -72mV para las frecuencias stock (incluso subiendo 50MHz el OC) y minando he llegado a tenerla a -96mV con un consumo de 117W (en realidad no llegaba a 1V respecto los 1,25V de stock).
 
En mi caso que juego a 2560x1080p a 80Hz...la 480 diría que encaja casi a la perfección.

¿Cuál es el objetivo para un jugador? Poder jugar a máximo detalle gráfico y máximos filtros sin bajar el rendimiento, es decir, jugar a la máxima tasa de fps que casen con la tasa de refresco de tu monitor.

En mi caso son 70/80fps, y obviamente no siempre se mantiene. Es por ello que pienso en las Rx Vega.

Sin embargo el rendimiento/coste energético que ofrece Rx 480, con la que juegas entre 140/200Watt a máxima potencia ( y una media que se mueve, como dije, entre 140/160W) es en torno a un 60/70% menor que el coste energético que demandarán las Rx Vega (contando con que sea un TDP de 275Watt, frente a 150W de TDP de la 480).

¿Qué quiere decir esto? que sumando esa diferencia entre consumo (60/70% menor) junto a la diferencia en rendimiento bruto (que se situaría por encima de la 1070 y 1080, las cuales se alcanzan con Crossfire de 480 casi siempre) que puede ser en torno al 25% superior a la 480 (y esto se comprueba fácilmente con test en una misma resolución), entonces entendemos que las Rx Vega se pasan de coste para 1080p o su variante ultrawide.

Por mucho que me encantaría jugar a B1 con todo en ultra, máximos filtros, en mapas con 70 jugadores y todas las explosiones y lo denso que es eso para mantener un frame rate y frame time decentes, la Rx 480 no lo consigue en 2560x1080p. Es normal. Le tengo que bajar la calidad del terreno, la de la vegetación y el detalle de las luces junto a los filtros de oclusión ambiental, según el mapa y cantidad de jugadores, quiero recalcar. Por tanto, puedo jugar a 1350Mhz entre 55-80 fps bajando algunos presets. Normalmente bajo 2 o 3 a Alto en lugar de Ultra, pero me gustaría que fuera todo Ultra sin bajar nada. Por eso pensé en Vega.

Evidentemente las Rx Vega están orientadas a competir con la gama alta de Nvidia, que suelen ser carne de resoluciones mayores, pero he llegado a considerar, para los juegos presentes (Witcher 3, otro ejemplo de grandes requisitos de potencia para alcanzar un alto frame rate), que en 2560x1080p también sería una buena jugada.

Sé que pierdo estabilidad en los fps debido a que juego en 8gb de ram single channel y en un i5 4670k, que sin hyperthreading está sufriendo por los juegos de luces, de físicas etc de los juegos, pero es lo que hay. Mi ordenador, a no ser que encuentre un i7 de tremenda oferta, se va a quedar así hasta que pase a otra plataforma.

Bueno. Os he dejado mis reflexiones y detalles de mi situación para con Rx Vega en comparación con la, quizá, tarjeta mainstream por excelencia en este momento (pese a que la 1060 se colgó todas las medallas de ventas, a causa de la mala gestión del stock inicial de la 480 y sus problemas de drivers), para la resolución también mainstream.

Si queréis opinar, soy todo ojos. Saludos.

PD: para jugar a The Witcher 3 en 70fps estables en 1440p o un ultrawide de 2k se requiere mucha potencia, y estamos hablando de un juego de 2015. Esperemos que Vega tenga algo más que ofrecer que una potencia a mejor precio, pues si el precio no es significantivamente mejor, con lo que viene de Nvidia en apenas 2-3 meses habrá perdido sentido y tendrá que bajar aun más su precio, lo que haría poco inteligente, a priori, comprar Vega en los primeros meses siempre que no demuestre una ventaja adicional para el resto de usuarios o no del freesync (como un servidor), que bien debiera ser un consumo o eficiencia energética todavía mejor, junto a un precio bastante distanciado de su competidor (cosa que no acabo de ver que se cumpla).
Si la Rx Vega Nova (creo que la más baja) tuviera 250W de tdp en lugar de 275 ya sería un comienzo.
 
Última edición:
Arriba