• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

AMD Radeon RX 6000: filtraciones

Dosconectores de ocho pins en la founders.Que tiemble la RTX 3070-Le ha salido un grano en el culo enorme.Y quizas(solo quizas)tambien a la RTX 3080.
Eh57PeAXcAA_nHU
Eh57P8kWoAEE5tK
Eh57QdIXgAA5Abk

Lo que no me termina de convencer son los conectores (1HDMI, 2DP y 1USB-C), puede ser un problema para los que quieran usar configuraciones de triple monitor, por más que haya quedado relegado a simuladores de coches (para shooters con un ultrawide te sobra FOV)
 
Que currada de post, impresionante!! Esperemos que AMD pueda competir de tu a tu con NVidia
 
Se agradece el post. Pero tiene más de especulación que de información. Si AMD las tiene preparadas ya, es un error de bulto dejar copar el mercado a Nvidia. Cuando las saquen ya muchos se habrán ido a la serie 3000
 
Se agradece el post. Pero tiene más de especulación que de información. Si AMD las tiene preparadas ya, es un error de bulto dejar copar el mercado a Nvidia. Cuando las saquen ya muchos se habrán ido a la serie 3000
Eso es verdad, en una pelea, el que da el primer golpe es el que tiene las de ganar.
 
Una pregunta compañeros, si suponemos que la tarjeta que nos han enseñado es la tope de gama, ¿por qué no le han puesto 3 conectores de 8 pines para aumentar el rendimiento al máximo (aún con el aumento del consumo)?
Me suena que hay modelos custom de la 3090 con 3x8 pines (si no estoy equivocado), y con las graficas tan tragonas que ha presentado NVIDIA, nadie hubiera dicho nada porque se hubieran marcado un "nuevo Vega".

O quizás, los 7 nm no permiten aumentar tanto el consumo como los 8-10 de Samsung?
 
Se agradece el post. Pero tiene más de especulación que de información.

El título lo dice bien claro... son filtraciones y especulaciones que he ido recopilando estas últimas semanas (tanto de las RX6000 como de las RTX3000, aunque aquí no las nombre mucho). En paralelo tengo creado un Excel para poder calcular los TFLOPs F32 (multiplicar cores x frecuencias) tanto de Turing y Ampere como de RDNA1, RDNA2 y las consolas, así como ver la eficiencia energética (TFLOPS en juegos/W), para lo cual aplico correcciones para que los resultados del modelo se aproximen lo máximo a los resultados reales.

Y ahora que empiezan a salir benchmarks de cómo de eficiente es cada gráfica RTX3000 voy pudiendo ajustar las correcciones aplicadas a cara arquitectura. Y con estas AMD, si se cumplen esos números, incluso con un modificador de eficiencia algo inferior quedan bastante a la par.

Si AMD las tiene preparadas ya, es un error de bulto dejar copar el mercado a Nvidia. Cuando las saquen ya muchos se habrán ido a la serie 3000.

Obviamente es mejor pegar primero y además hacerlo pegando duro. La cuestión es que se ve a AMD muy confiada de lo que tienen, sino tendríamos Internet repleto de filtraciones y benchmarks desde hace meses para generar ruido.

Por ejemplo ya se empieza a hablar del limitado stock que podrían tener las RTX3000, de hecho aquí en España ni siquiera le han mandado unidades de prueba a muchos medios y youtubers del sector.

Una pregunta compañeros, si suponemos que la tarjeta que nos han enseñado es la tope de gama, ¿por qué no le han puesto 3 conectores de 8 pines para aumentar el rendimiento al máximo (aún con el aumento del consumo)?
Me suena que hay modelos custom de la 3090 con 3x8 pines (si no estoy equivocado), y con las graficas tan tragonas que ha presentado NVIDIA, nadie hubiera dicho nada porque se hubieran marcado un "nuevo Vega".

O quizás, los 7 nm no permiten aumentar tanto el consumo como los 8-10 de Samsung?

La gráfica que enseñó AMD en Twitter es el modelo de referencia... pero no especifica de que gama. Además los conectores de 8pines pueden llevar hasta 150W cada uno, más 75W del conector PCI-E, por lo que con sólo 8+8pines podrías alimentar una gráfica de 375W. Eso no quiere decir que algunos modelos custom no monten 3 conectores de 8pines, haciendo que la energía vaya más repartida que en sólo 2.

Dicho eso y con los datos que manejo HOY, mis cuentas me hablan de 250W-300W-350W respectivamente para los 3 modelos de RX 6000, dándome una eficiencia de entre 0.072 y 0.074 TFLOPs/W (ya aplicadas las correcciones), frente a entre 0.045 y 0.05 TFLOPs/W para las RX 5000, lo cual encajaría con la mejora del +50% de eficiencia energética que anunciaba AMD.
 
Por precios... supongo que repetirá estrategia, entorno a 50-75€ menos que la Nvidia equivalente en las gamas medias. Por arriba tiene mucho más margen, entre la RTX 3080 y 3090 hay 700-800€ de "gap" donde posicionarse, podrían plantar la BigNavi por debajo de 1000€ y reventar el mercado como cuando pusieron el 3900x al precio del 9900K (con 4 cores extra).

Y pueden ser agresivos con los precios porque la fabricación de los chips RDNA2 será más barata que las Ampere. Son 7nm frente a 10nm (por más que Samsung los llamé 8nm) y el tamaño de los DIE (los chips) pueden llegar a ser entorno a la mitad de tamaño que los de Nvidia para una potencia equivalente... por lo que fabricarlos es mucho más barato.
No voy a meterme en debatir los números de arriba, pero aqui hay una incongruencia. Si van consumir similar con el die un 30-50% menor, tostadoras será poco para llamarlas. Con AMD en lo de las GPU siempre ha sido promesas, promesas y luego humo, y ahora tienen una competencia más fuerte que nunca, y las optimisaciones que hacen en las consolas con el VRS aqui no valdran.
Más vale que la GPU más fuerte que saquen duplique los fps de la 5700xt, porque si no lo hace, no sobrepasará a nvidia en potencia bruta y aunque estén en un nivel similar, yo creo que el DLSS va a ser muy, muy rompedor, por mucho bombo y platillo que le dan al raytracing, el dlss será una amenaza mucho más fuerte, y el VRS no tiene nada que hacer contra el DLSS, especialmente cuando el DLSS en su version 2.0 se ve tan bien como nativo, es decir, tiene margen para mejora, y mucho.
 
Última edición:
Gran post, a tope con las Navi. Tengo la intuición de que darán mucha guerra.

Lo más llamativo para mi es la implementación del Ray Tracing y la capacidad que tenga la arquitectura de explotar el ancho de banda, que sin memorias GDDR6X (propiedad Nvidia) y las muy caras HBM2e va a estar complicado. De hecho, si nos fijamos en la RX 5700XT contra la RTX 2070 Super (Hardware Unboxed tiene muy buena y reciente review que revela las vergüenzas de la Nvidia frente a la Radeon) a 4K la Turing conseguía revertir el roto que le hacía la Navi, pues las Radeon no acabaron de ser tan buenas para sobrepasar el "3k" (forma de hablar de 3440x1440p, que es alrededor del 22/25% superior en pixels al 1440p convencional, "2K"), que es donde la 2070 S se acaba de imponer. Es curioso, pero parece que es la gestión de la memoria donde está la limitación de Radeon ahora mismo, si no mirad la Radeon VII...super asfixiada en ese cuello de botella, pese a los 16GB de memoria HBM2 y un bus 4096 bit ... esto va a ser más importante al final que la eficiencia energética, los cálculos de punto flotante, mesh shading o la carga de texturas en el SSD (siempre y cuando no sea esto parte de la solución).

Aun así, tengo ya mis 400/500€ máximo para lo que sea que traiga AMD (si no me toca la RTX3080 :p) . Confío en que compitan muy bien.
 
Última edición:
a ver si es cierto y compite con nvidia , sinceramente si queda cerca y es mas barata se vendera bien . si no sera un desastre como de un tiempo a esta parte
 
¿Solo tiene 2 Displayport y un HDMI? Que raro, si yo tengo una RX570 y ya tiene 3 DP para poder hacer configuraciones de triple monitor.
 
A mi de todas formas me ilusiona bastante AMD. Lo han hecho muy bien con las CPU y la generación anterior con las RX5700 y RX5700XT obligaron a Nvidia a sacar la gama Super.

Por mi parte esperare a tener datos reales y a ver que ofertas hay en el Black Friday. Pero esta generación pinta muy bien.
 
No voy a meterme en debatir los números de arriba, pero aqui hay una incongruencia. Si van consumir similar con el die un 30-50% menor, tostadoras será poco para llamarlas. Con AMD en lo de las GPU siempre ha sido promesas, promesas y luego humo, y ahora tienen una competencia más fuerte que nunca, y las optimisaciones que hacen en las consolas con el VRS aqui no valdran.
Más vale que la GPU más fuerte que saquen duplique los fps de la 5700xt, porque si no lo hace, no sobrepasará a nvidia en potencia bruta y aunque estén en un nivel similar, yo creo que el DLSS va a ser muy, muy rompedor, por mucho bombo y platillo que le dan al raytracing, el dlss será una amenaza mucho más fuerte, y el VRS no tiene nada que hacer contra el DLSS, especialmente cuando el DLSS en su version 2.0 se ve tan bien como nativo, es decir, tiene margen para mejora, y mucho.

El DIE de la RTX 3070 creo que ronda los 400mm² y las RTX 3080 y 3090 los 650mm². Las actuales RX5700XT son 240mm², para esta gen se habla de unos 330mm² para Navi23 y sus 52CUs, hasta 550mm² los modelos superiores hasta 80CUs, dejando 220mm² los modelos más básicos.

Siendo así, no habría tanta diferencia de tamaño/coste (cuando anunciaron que duplicaban cores yo me asusté sinceramente).

La RX5700XT va a quedar muy abajo en el catálogo de AMD, con al menos 3 GPUs por encima. Insisto, van a duplicar cores por CU (por el dual graphics pipe) y además a montar el doble de CUs... y encima los 7nm son algo más eficientes.

¿Será humo al final? Yo la verdad no recordaba la última vez que AMD era capaz de ser una amenaza para Nvidia...
 
Gracias por el análisis @American Graffiti

La realidad es que tengo unos 700€ para una gráfica y quien mejor rendimiendo me de por ese precio se quedará con el dinero. Si es una Nvidia 3080 genial, y si es una AMD XXXX pues genial también

Lo que yo busco realmente es potencia bruta, Tflops reales. Aunque el software que uso, Vray, puede que tenga algo que decir a la hora de decantarme ya que suelen dar mejor soporte para Nvidia

Mientras tanto seguiré con el cubo de palomitas viendo como salen reviews y benchmarks, ya que hasta que salgan los nuevos Ryzen (noviembre?) no montaré el PC. Para ese momento las RTX 3000 estarán en la calle y las AMD puede que también
 
El DIE de la RTX 3070 creo que ronda los 400mm² y las RTX 3080 y 3090 los 650mm². Las actuales RX5700XT son 240mm², para esta gen se habla de unos 330mm² para Navi23 y sus 52CUs, hasta 550mm² los modelos superiores hasta 80CUs, dejando 220mm² los modelos más básicos.

Siendo así, no habría tanta diferencia de tamaño/coste (cuando anunciaron que duplicaban cores yo me asusté sinceramente).

La RX5700XT va a quedar muy abajo en el catálogo de AMD, con al menos 3 GPUs por encima. Insisto, van a duplicar cores por CU (por el dual graphics pipe) y además a montar el doble de CUs... y encima los 7nm son algo más eficientes.

¿Será humo al final? Yo la verdad no recordaba la última vez que AMD era capaz de ser una amenaza para Nvidia...
Desde luego, que teniendo en cuenta lo que vienen anunciando en las consolas, los rumores son creíbles, y más con nvidia que parece que se está preparando para competición fuerte, pero me da que esta vez aunque sea por primera vez que no sea humo, no van a dar la talla. La 3080 aunque sea 35-40% más potente que la 2080ti (que probablemente es como será), la 2080ti ya es un 35-40% más potente que la 5700xt. La diferencia se vuelve abismal, y tienen dlss.
Como te digo. Más vale que la gpu de amd de 700-800€ saque literalmente el doble de fps que la 5700xt, porque no van a competir.
 
Desde luego, que teniendo en cuenta lo que vienen anunciando en las consolas, los rumores son creíbles, y más con nvidia que parece que se está preparando para competición fuerte, pero me da que esta vez aunque sea por primera vez que no sea humo, no van a dar la talla. La 3080 aunque sea 35-40% más potente que la 2080ti (que probablemente es como será), la 2080ti ya es un 35-40% más potente que la 5700xt. La diferencia se vuelve abismal, y tienen dlss.
Como te digo. Más vale que la gpu de amd de 700-800€ saque literalmente el doble de fps que la 5700xt, porque no van a competir.
Vamos por partes...
Segun asl encuestas de Steam estas graficas son totalmente irrelevantes.
Mas del 80% juega en 1080p.Eso es un hecho.E incluso una 5700xt es un puñetero overkill para esa resolucion.
Dicho lo cual.Entre los forofos foreros8por que si nos metemos aqui es que somos unos forofos foreros) buscaran el pescado ams gordo que se puedan permitir o que les consienta la situacion economico-familiar.
El mayor enemigo de AMD ATi es ella misma.Como salgan con un truño de controladores como con la anterior generacion de Navi,apaga y vamonos.
El 100 pòr ciento de los juegos no van a usar DLSS.Y hay un ejemplod e,que aun usando la tecnologia DLSS,AMD ATi son competitivas.Me refiero al Death Stranding(o pro Telepizza walking simulator).
Resumiendo.Si pensais pasar a 1440p y alta tasa de refresco(hacia arriba) Big Navi y RTX 30xx son vuestras graficas a comprar este año.AMD NAVI2va a ser buena(las consolas basadas en ella lo son ya) en cuanto a rasrterizacion.ya veremos en cuanto a Ray Tracing.y si el jeugo usa DLSS... dependera de si implementan mas tecnologias,como el death stranding.
Yo solo quiero mas de 85 fps en el Red Dead Redemption.Me da igual la marca del papel higienico.Con tal de que me limpie bien(y no me pringue la mano) me sobra.Y perdon por todo el puto tochod e of topic que es este post.
 
Vamos por partes...
Segun asl encuestas de Steam estas graficas son totalmente irrelevantes.
Mas del 80% juega en 1080p.Eso es un hecho.E incluso una 5700xt es un puñetero overkill para esa resolucion.
Dicho lo cual.Entre los forofos foreros8por que si nos metemos aqui es que somos unos forofos foreros) buscaran el pescado ams gordo que se puedan permitir o que les consienta la situacion economico-familiar.
El mayor enemigo de AMD ATi es ella misma.Como salgan con un truño de controladores como con la anterior generacion de Navi,apaga y vamonos.
El 100 pòr ciento de los juegos no van a usar DLSS.Y hay un ejemplod e,que aun usando la tecnologia DLSS,AMD ATi son competitivas.Me refiero al Death Stranding(o pro Telepizza walking simulator).
Resumiendo.Si pensais pasar a 1440p y alta tasa de refresco(hacia arriba) Big Navi y RTX 30xx son vuestras graficas a comprar este año.AMD NAVI2va a ser buena(las consolas basadas en ella lo son ya) en cuanto a rasrterizacion.ya veremos en cuanto a Ray Tracing.y si el jeugo usa DLSS... dependera de si implementan mas tecnologias,como el death stranding.
Yo solo quiero mas de 85 fps en el Red Dead Redemption.Me da igual la marca del papel higienico.Con tal de que me limpie bien(y no me pringue la mano) me sobra.Y perdon por todo el puto tochod e of topic que es este post.
Llamalo X. Uno, a mi me dan igual las escuestas de steam, y dos, juego en 1080 y para mi, si son relevantes, e incluso para esos de las encuestas de steam. La competencia al tope, suele tener efecto global, y si la competencia es fuerte arriba, tardan nada y menos en avanzar y que la potencia extra y los features lleguen a los que tienen menos requerimentos y presupuestos más bajos.

La 5700xt no es ningun overkill. Es apenas suficiente para 144 1080p. Es un 15-20% más potente que mi 1080 (o una 2060/5600xt que son practicamente un calco de la 1080) y yo en según que juego, tengo que bajar a mezclas de ultra con bajos o medios, o altos con bajos y medios para sacar por encima de 100fps. En algunos consigo alcanzar malamente los 144, en algunos 115-130 y en algunos a duras penas alcanza los 100. Eso ya no se puede considerar una GPU para 144hz.
y el dlss aunque esté en pañales y lo lleven 3 juegos, una buena GPU te puede durar 3-4 años bien, tiempo suficiente para que el dlss se vuelva viral.

Yo juego en 1080p 144, y si la competencia va bien, dentro de 12 meses que es cuando tengo pensado upgradear, si todo va viento en popa, por menos de 400€, me puedo conseguir una GPU, un 15-20% más potente de lo que me hace falta para 1080p 144hz (o dicho de otra forma, un 50% más potente que la mia actual), y cuando digo 144hz, digo 144hz en una linea casi recta, no me valen de media, que al final resulta, que te baja en los 100 y por debajo, y en cuanto pasen 2 años ya estas en los 100 de media. 144 a 1080p bien hechos en casi todos los juegos, es nivel de una 2080 super, y hay juegos en los que no los saca, y sin raytracing, hairworks y pijadas qe aumentan la calidad visual un 3% y te comen un 20 de rendimiento, porque si activas todo eso, la 2080 super se te queda en los 100 y según que juego, menos aún. Y si es posible que tenga la tecnologia del dlss o similar, mucho mejor.
 
Última edición:
Al menos el diseño me gusta
Pues a mi todo lo contrario. Aunque no me digusta la estetica, esa grafica, para mantenimiento y mods, tiene que ser un dolor de hue**** colosal, a ver si va a tener que plastico y pegamento caliente como las rtx 2000.
 
La verdad es que viendo el rendimiento de las 3080, si esta a su altura de esta (6900XT), sera una VGA increible. Consumira menos que esta, y ademas con el proceso de fabricacion de TSMC de 7nm, seguro que tiene mas OC. Todo esto unido, a que AMD suele ser mas contenida en precio, la harian una VGA "super- redonda", veremos a ver que pasa con ellas, las tengo en el retrovisor por si acaso................................

Un saludo.
 
Arriba