Primera foto 3090

Lord Astur

Master Chapuzas
Registrado
14 Abr 2020
Mensajes
1.162
Puntos
113
350 W de pico en juegos, y 370 W de consumo sostenido en Furmark. A cambio 4K a 60 fps bastante fáciles en general. Un buen bicho. Aunque consume más de lo que me esperaba.
 

tboanibal

Master Chapuzas
Registrado
23 Oct 2018
Mensajes
4.254
Puntos
113
350 W de pico en juegos, y 370 W de consumo sostenido en Furmark. A cambio 4K a 60 fps bastante fáciles en general. Un buen bicho. Aunque consume más de lo que me esperaba.
Entonces al final las recomendaciones de fuentes de Nvida parecen bastante acertadas.
 

Maerskian

Chapuzas Senior
Registrado
19 Ene 2015
Mensajes
95
Puntos
8
 

Lord Astur

Master Chapuzas
Registrado
14 Abr 2020
Mensajes
1.162
Puntos
113
Entonces al final las recomendaciones de fuentes de Nvida parecen bastante acertadas.

Sí. En general, 375 de máximo para la gráfica, los 50 W del resto de componentes, y lo que consuma el procesador. Es decir, 425 W (tirando por algo) más el procesador, que pedirá lo que pida. Dudo que con 750 W vaya a haber problemas en el 95 % de los casos, 850 si nos vamos a OC fuerte a CPU. Pero sí, podemos confirmar que la recomendación de 750 W eran vatios reales, no como otras veces. No obstante, quien tenga una fuente de 650 W, y dependiendo del procesador que use, podrá moverla.

No puedo esperar a ver a la gente montándola con una Tacens de 750 W... 😂

Eso sí, por lo que he visto a más resolución más diferencia con otras tarjetas gráficas. Parece que no hay una CPU a la altura, al menos para 1080p.
 

Maerskian

Chapuzas Senior
Registrado
19 Ene 2015
Mensajes
95
Puntos
8
Visto lo visto ya pueden disfrutarlas quienes compren las FE esperando que les toque la lotería .

Vista la pobreza del mercado en monitores ultrawide IPS y la que se avecina en primeras remesas de GPUs parece que me toca mentalizarme y esperar otro año con mi 970; aunque AMD plantee guerra tocará esperar a que mejoren drivers igualmente, y los precios generales de ambas apuntan a subidón inicial.

Me pregunto como fastidiarán las nuevas generaciones de consolas todo esto.
 

Spriggan

Chapuzas Jr
Registrado
16 Abr 2020
Mensajes
23
Puntos
13
llevo toda la mañana mirando y anoche me quede hasta tarde, alguien sabe a que hora ponen lo de las graficas, es por hacerme una idea para el 24, por que es raro que no salga nada, ni en pccomponentes ni en ningún sitio.
 

O3M

S.T.A.L.K.E.R. de las chapuzas
Registrado
6 Abr 2019
Mensajes
2.358
Puntos
113
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
 

Spriggan

Chapuzas Jr
Registrado
16 Abr 2020
Mensajes
23
Puntos
13
En principio a las 15h, tal cual ya fué con las reviews.

ya decía yo que era muy raro que no saliera nada, yo mirare por curiosidad si se pudiera reservar la 3090, que supongo que no, pero curiosidad mirare si estará tan complicado poder hacer con algunas de las otras por hacer una idea de como esta el panorama, aun que espero que al ser mas cara la 3090 no tengamos tantos problemas a la hora de comprarlas como con la 3080.
 

SkamoT

Master Chapuzas
Registrado
6 Feb 2018
Mensajes
1.323
Puntos
83
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

En parte tienes razón, pero también es verdad que el rendimiento por W ha crecido bastante, incluso en esta generación que consumen mas, también tienen mas rendimiento, que son mas eficientes que las anteriores .

Pero parece ser que si cada vez hay mas rendimiento, la tendencia será a subir.
 

Lord Astur

Master Chapuzas
Registrado
14 Abr 2020
Mensajes
1.162
Puntos
113
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

La verdad es que son más eficientes, pero al aumentar mucho más su rendimiento, al final aumenta el consumo.

Lo que no quita que para mí me parezca decepcionante un consumo tan alto. Podría tener un pase si fuese la 3090. Pero que la 3080 chupe más que hacienda... Sinceramente, en esa gráfica creía que el segundo conector de 8 pines era de 8 y no de 6 (sí, ya sé que está el adaptador en medio, pero creo que se entiende lo que quiero decir) para dar margen al OC, no porque realmente fuera necesario; me esperaba unos consumos de unos 280 W más o menos.
 

O3M

S.T.A.L.K.E.R. de las chapuzas
Registrado
6 Abr 2019
Mensajes
2.358
Puntos
113
La verdad es que son más eficientes, pero al aumentar mucho más su rendimiento, al final aumenta el consumo.

Lo que no quita que para mí me parezca decepcionante un consumo tan alto. Podría tener un pase si fuese la 3090. Pero que la 3080 chupe más que hacienda... Sinceramente, en esa gráfica creía que el segundo conector de 8 pines era de 8 y no de 6 (sí, ya sé que está el adaptador en medio, pero creo que se entiende lo que quiero decir) para dar margen al OC, no porque realmente fuera necesario; me esperaba unos consumos de unos 280 W más o menos.
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...
Rendir rendiran flipantemente, seran todo lo eficientes que se quiera pero el consumo electrico es el que es...
MEGABURRADA.
 

American Graffiti

Sombrerero Loco
Registrado
23 Ene 2013
Mensajes
5.608
Puntos
113
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

Para mí esto tiene una explicación clara, con 3 puntos claves:

1. Sale nueva generación de consolas y a los fabricantes les toca dar un salto importante de rendimiento para ofrecer algo a donde las consolas no lleguen. La XBOX series X se viene con una GPU similar a una RTX2080 por unos 600€ y la PS5 algo equivalente a una RTX 2060S/2070 por unos 400-500€ (según versión).

2. La miniaturización (reducción de nm) favorece mucho la eficiencia energética, sobretodo cuando mantengas unos voltajes cercanos/inferiores a 1.0V (cuando una R9 390X funcionaba a 1.2V sin inmutarse), ya que al reducir el tamaño del chip cuesta más disiparlo.

R9 390 >>> fabricado a 28nm >> 2560 cores a 1060MHz >> TDP 275W >> 438 mm2
RX5700XT >> fabricado a 7nm >> 2560 cores a 1925MHz >> TDP 225W >> 251 mm2

>>>> Diferencia de rendimiento... la RX 5700XT rinde más del doble y es capaz de funcionar con menos W, ser más fresca y disipar el calor con casi la mitad de superficie.

3. ¿Cómo puedes seguir aumentando rendimiento ahora que tus chips son pequeños y eficientes? Pues haciendo chips más grandes y meter muchos más CUs/SMUs (grupos de cores) en el chip. Al meter muchos más cores (incluso duplicarlos) te puedes permitir bajar algo las frecuencias y que todo vaya fresco aún con una gráfica de más de 350W de consumo cuando antes superar los 250W era un dolor de cabeza.

>>>> El consumo nunca ha sido el problema, el problema es el calor. Y las actuales gráficas son capaces de "auto-ocearse" y seguir subiendo frecuencias siempre que la temperatura lo permita. La RX5700XT llegaba con frecuencias boost de 1925MHz, la realidad es que superabas los 2030MHz sin tocar nada. A estas RTX 3000 les pasa similar, marcan 1700MHz de boost, pero la realidad es que superan los 1800MHz sin ningún problema mientras la temperatura lo permite.

PD: la R9 390X no llegué a probarla, pero tengo la R9 Fury (que era el mismo chip pero con hasta 56CUs y casi 600mm2) pasando de 44CUs a 52CUs y cambiando las memorias por HBM. Y aunque estaba muy contento con la Fury... lo estoy mucho más con la RX 5700XT.
 
Última edición:

O3M

S.T.A.L.K.E.R. de las chapuzas
Registrado
6 Abr 2019
Mensajes
2.358
Puntos
113
Para mí esto tiene una explicación clara, con 3 puntos claves:

1. Sale nueva generación de consolas y a los fabricantes les toca dar un salto importante de rendimiento para ofrecer algo a donde las consolas no lleguen. La XBOX series X se viene con una GPU similar a una RTX2080 por unos 600€ y la PS5 algo equivalente a una RTX 2060S/2070 por unos 400-500€ (según versión).

2. La miniaturización (reducción de nm) favorece mucho la eficiencia energética, sobretodo cuando mantengas unos voltajes cercanos/inferiores a 1.0V (cuando una R9 390X funcionaba a 1.2V sin inmutarse), ya que al reducir el tamaño del chip cuesta más disiparlo.

R9 390 >>> fabricado a 28nm >> 2560 cores a 1060MHz >> TDP 275W >> 438 mm2
RX5700XT >> fabricado a 7nm >> 2560 cores a 1925MHz >> TDP 225W >> 251 mm2

>>>> Diferencia de rendimiento... la RX 5700XT rinde más del doble y es capaz de funcionar con menos W, ser más fresca y disipar el calor con casi la mitad de superficie.

3. ¿Cómo puedes seguir aumentando rendimiento ahora que tus chips son pequeños y eficientes? Pues haciendo chips más grandes y meter muchos más CUs/SMUs (grupos de cores) en el chip. Al meter muchos más cores (incluso duplicarlos) te puedes permitir bajar algo las frecuencias y que todo vaya fresco aún con una gráfica de más de 350W de consumo cuando antes superar los 250W era un dolor de cabeza.

>>>> El consumo nunca ha sido el problema, el problema es el calor. Y las actuales gráficas son capaces de "auto-ocearse" y seguir subiendo frecuencias siempre que la temperatura lo permita. La RX5700XT llegaba con frecuencias boost de 1925MHz, la realidad es que superabas los 2030MHz sin tocar nada. A estas RTX 3000 les pasa similar, marcan 1700MHz de boost, pero la realidad es que superan los 1800MHz sin ningún problema mientras la temperatura lo permite.

PD: la R9 390X no llegué a probarla, pero tengo la R9 Fury (que era una pequeña evolución) pasando de 44CUs a 52CUs y cambiando las memorias por HBM. Y aunque estaba muy contento con la Fury... lo estoy mucho más con la RX 5700XT.
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.
Y con respecto a la 390X salvo las memorias hbm, la gpu no era mucho mas eficiente y su rendimiento no era mucho mayor.
Para mi la Fury fue un fracaso como la 390 un engaño refrito de la 290.
Por tanto es normal que si comparas esas tarjetas con una RX 5700XT, primero es una comparación sumamente descompensada y segundo es normal que estes mas que contento.
 

SkamoT

Master Chapuzas
Registrado
6 Feb 2018
Mensajes
1.323
Puntos
83
El problema de los consumos para mi ( caso particular ) , que cuando va todo a tope empieza a pitar el SAI por sobrecarga . Lo que hago es hacer undervolt, bajar consumos, reducir frecuencia del cpu ( para 4k no hace falta tanta frecuencia ), y así tengo la mitad de consumo con rendimiento igual o superior que de stock. Todo ventajas.

Pero me da a mi, que el dia que cambie a 3070/3080 , no se si me tocará cambiar por un SAI mas potente, por que las reviews que he visto no dejaban hacer undervolt :'(
8(
 

American Graffiti

Sombrerero Loco
Registrado
23 Ene 2013
Mensajes
5.608
Puntos
113
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.
Y con respecto a la 390X salvo las memorias hbm, la gpu no era mucho mas eficiente y su rendimiento no era mucho mayor.
Para mi la Fury fue un fracaso como la 390 un engaño refrito de la 290.
Por tanto es normal que si comparas esas tarjetas con una RX 5700XT, primero es una comparación sumamente descompensada y segundo es normal que estes mas que contento.

Con la Fury me lo he gozado muchísimo jugando a [email protected] aunque si hubiera tenido GDDR5 posiblemente la cosa habría cambiado bastante, porque es cierto que según que juegos se atragantaban con las HBM... pero en los que funcionaba bien era una delicia. Un poco de OC por aquí, un poco de UV por allá... y la gráfica era fresquísima y rendía igual o más que la GTX 1070.
 

Lord Astur

Master Chapuzas
Registrado
14 Abr 2020
Mensajes
1.162
Puntos
113
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...
Rendir rendiran flipantemente, seran todo lo eficientes que se quiera pero el consumo electrico es el que es...
MEGABURRADA.

Por supuesto, no te quito la razón.
 

Maerskian

Chapuzas Senior
Registrado
19 Ene 2015
Mensajes
95
Puntos
8
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

Lo he comentado unos cuantos mensajes atrás y sigo teniendo la misma impresión enlazado con lo que comentas:

Por mucho que nos hayan vendido sobre Ampere y las diferentes etapas de desarrollo sigo teniendo la impresión - no es nada más que eso - que este resultado final ha sido una medida a la desesperada por fallar el plan A .

Este plan A habría consistido en componentes más pequeños y mejores niveles de calidad, en una serie de innovaciones y metas a las que no se ha llegado... pero la presión que tienen encima es enorme y se trata de una empresa a la que no se le permite otra cosa que ser la mejor, la número 1, la bestia dominante y esto hace que tengan que ganar por las buenas ( innovación y eficiencia ) o por las malas a base de fuerza bruta ( el plan B ) y esto último es lo que han hecho.

No me cuadra demasiado esta solución final con las tendencias de CPUs / GPUs de los últimos años ergo... aquí ha habido patinazo y se ha optado por lo que fuera necesario para dar el siguiente mazazo sobre la mesa ( al cual estaban obligados, y en el contexto global actual todavía más ) .

Si todo esto se consigue revertir en 1-2 generaciones y dar un vuelco no me sorprendería en absoluto.
 

Lord Astur

Master Chapuzas
Registrado
14 Abr 2020
Mensajes
1.162
Puntos
113
Tal vez en la siguiente generación veamos una mejora de rendimiento inferior a la que ha habido ahora (no lo neguemos, es una gran mejoría), pero tal vez unos consumos menores; es decir, una eficiencia aun mayor.

Por otro lado, han salido ya las reviews de diferentes ensambladoras. Y estoy decepcionado, la verdad. He visto reviews de gráficas con triple conector de 8 pines, como la MSI Gaming X Trio, que consume (en Furmark) 55 W más que la Founders Edition, pero sin ofrecer un rendimiento significativo (apenas un 2 % en 1080p y un 4 % en 4K). Para eso me quedo con la Palit Gaming Pro OC, que consume incluso menos en Furmark y es algo más fresca que la FE (aunque igual de ruidosa). Habrá que mirar precios, pero parece que, a priori, las únicas interesantes serán las 2-3 más baratas (o la que tenga una refrigeración más silenciosa) que se conformen con 2 conectores de 8 pines; en las demás, todo parece indicar que el consumo aumenta sin ofrecer nada a cambio, ni siquiera un margen interesante para overclocking. No sé, me esperaba que un mayor consumo ofreciera algo interesante a cambio. ¿Soy el único "raro" que piensa así?
 
Arriba