• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Primera foto 3090

Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
 
En principio a las 15h, tal cual ya fué con las reviews.

ya decía yo que era muy raro que no saliera nada, yo mirare por curiosidad si se pudiera reservar la 3090, que supongo que no, pero curiosidad mirare si estará tan complicado poder hacer con algunas de las otras por hacer una idea de como esta el panorama, aun que espero que al ser mas cara la 3090 no tengamos tantos problemas a la hora de comprarlas como con la 3080.
 
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

En parte tienes razón, pero también es verdad que el rendimiento por W ha crecido bastante, incluso en esta generación que consumen mas, también tienen mas rendimiento, que son mas eficientes que las anteriores .

Pero parece ser que si cada vez hay mas rendimiento, la tendencia será a subir.
 
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

La verdad es que son más eficientes, pero al aumentar mucho más su rendimiento, al final aumenta el consumo.

Lo que no quita que para mí me parezca decepcionante un consumo tan alto. Podría tener un pase si fuese la 3090. Pero que la 3080 chupe más que hacienda... Sinceramente, en esa gráfica creía que el segundo conector de 8 pines era de 8 y no de 6 (sí, ya sé que está el adaptador en medio, pero creo que se entiende lo que quiero decir) para dar margen al OC, no porque realmente fuera necesario; me esperaba unos consumos de unos 280 W más o menos.
 
La verdad es que son más eficientes, pero al aumentar mucho más su rendimiento, al final aumenta el consumo.

Lo que no quita que para mí me parezca decepcionante un consumo tan alto. Podría tener un pase si fuese la 3090. Pero que la 3080 chupe más que hacienda... Sinceramente, en esa gráfica creía que el segundo conector de 8 pines era de 8 y no de 6 (sí, ya sé que está el adaptador en medio, pero creo que se entiende lo que quiero decir) para dar margen al OC, no porque realmente fuera necesario; me esperaba unos consumos de unos 280 W más o menos.
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...
Rendir rendiran flipantemente, seran todo lo eficientes que se quiera pero el consumo electrico es el que es...
MEGABURRADA.
 
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

Para mí esto tiene una explicación clara, con 3 puntos claves:

1. Sale nueva generación de consolas y a los fabricantes les toca dar un salto importante de rendimiento para ofrecer algo a donde las consolas no lleguen. La XBOX series X se viene con una GPU similar a una RTX2080 por unos 600€ y la PS5 algo equivalente a una RTX 2060S/2070 por unos 400-500€ (según versión).

2. La miniaturización (reducción de nm) favorece mucho la eficiencia energética, sobretodo cuando mantengas unos voltajes cercanos/inferiores a 1.0V (cuando una R9 390X funcionaba a 1.2V sin inmutarse), ya que al reducir el tamaño del chip cuesta más disiparlo.

R9 390 >>> fabricado a 28nm >> 2560 cores a 1060MHz >> TDP 275W >> 438 mm2
RX5700XT >> fabricado a 7nm >> 2560 cores a 1925MHz >> TDP 225W >> 251 mm2

>>>> Diferencia de rendimiento... la RX 5700XT rinde más del doble y es capaz de funcionar con menos W, ser más fresca y disipar el calor con casi la mitad de superficie.

3. ¿Cómo puedes seguir aumentando rendimiento ahora que tus chips son pequeños y eficientes? Pues haciendo chips más grandes y meter muchos más CUs/SMUs (grupos de cores) en el chip. Al meter muchos más cores (incluso duplicarlos) te puedes permitir bajar algo las frecuencias y que todo vaya fresco aún con una gráfica de más de 350W de consumo cuando antes superar los 250W era un dolor de cabeza.

>>>> El consumo nunca ha sido el problema, el problema es el calor. Y las actuales gráficas son capaces de "auto-ocearse" y seguir subiendo frecuencias siempre que la temperatura lo permita. La RX5700XT llegaba con frecuencias boost de 1925MHz, la realidad es que superabas los 2030MHz sin tocar nada. A estas RTX 3000 les pasa similar, marcan 1700MHz de boost, pero la realidad es que superan los 1800MHz sin ningún problema mientras la temperatura lo permite.

PD: la R9 390X no llegué a probarla, pero tengo la R9 Fury (que era el mismo chip pero con hasta 56CUs y casi 600mm2) pasando de 44CUs a 52CUs y cambiando las memorias por HBM. Y aunque estaba muy contento con la Fury... lo estoy mucho más con la RX 5700XT.
 
Última edición:
Para mí esto tiene una explicación clara, con 3 puntos claves:

1. Sale nueva generación de consolas y a los fabricantes les toca dar un salto importante de rendimiento para ofrecer algo a donde las consolas no lleguen. La XBOX series X se viene con una GPU similar a una RTX2080 por unos 600€ y la PS5 algo equivalente a una RTX 2060S/2070 por unos 400-500€ (según versión).

2. La miniaturización (reducción de nm) favorece mucho la eficiencia energética, sobretodo cuando mantengas unos voltajes cercanos/inferiores a 1.0V (cuando una R9 390X funcionaba a 1.2V sin inmutarse), ya que al reducir el tamaño del chip cuesta más disiparlo.

R9 390 >>> fabricado a 28nm >> 2560 cores a 1060MHz >> TDP 275W >> 438 mm2
RX5700XT >> fabricado a 7nm >> 2560 cores a 1925MHz >> TDP 225W >> 251 mm2

>>>> Diferencia de rendimiento... la RX 5700XT rinde más del doble y es capaz de funcionar con menos W, ser más fresca y disipar el calor con casi la mitad de superficie.

3. ¿Cómo puedes seguir aumentando rendimiento ahora que tus chips son pequeños y eficientes? Pues haciendo chips más grandes y meter muchos más CUs/SMUs (grupos de cores) en el chip. Al meter muchos más cores (incluso duplicarlos) te puedes permitir bajar algo las frecuencias y que todo vaya fresco aún con una gráfica de más de 350W de consumo cuando antes superar los 250W era un dolor de cabeza.

>>>> El consumo nunca ha sido el problema, el problema es el calor. Y las actuales gráficas son capaces de "auto-ocearse" y seguir subiendo frecuencias siempre que la temperatura lo permita. La RX5700XT llegaba con frecuencias boost de 1925MHz, la realidad es que superabas los 2030MHz sin tocar nada. A estas RTX 3000 les pasa similar, marcan 1700MHz de boost, pero la realidad es que superan los 1800MHz sin ningún problema mientras la temperatura lo permite.

PD: la R9 390X no llegué a probarla, pero tengo la R9 Fury (que era una pequeña evolución) pasando de 44CUs a 52CUs y cambiando las memorias por HBM. Y aunque estaba muy contento con la Fury... lo estoy mucho más con la RX 5700XT.
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.
Y con respecto a la 390X salvo las memorias hbm, la gpu no era mucho mas eficiente y su rendimiento no era mucho mayor.
Para mi la Fury fue un fracaso como la 390 un engaño refrito de la 290.
Por tanto es normal que si comparas esas tarjetas con una RX 5700XT, primero es una comparación sumamente descompensada y segundo es normal que estes mas que contento.
 
El problema de los consumos para mi ( caso particular ) , que cuando va todo a tope empieza a pitar el SAI por sobrecarga . Lo que hago es hacer undervolt, bajar consumos, reducir frecuencia del cpu ( para 4k no hace falta tanta frecuencia ), y así tengo la mitad de consumo con rendimiento igual o superior que de stock. Todo ventajas.

Pero me da a mi, que el dia que cambie a 3070/3080 , no se si me tocará cambiar por un SAI mas potente, por que las reviews que he visto no dejaban hacer undervolt :'(
8(
 
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.
Y con respecto a la 390X salvo las memorias hbm, la gpu no era mucho mas eficiente y su rendimiento no era mucho mayor.
Para mi la Fury fue un fracaso como la 390 un engaño refrito de la 290.
Por tanto es normal que si comparas esas tarjetas con una RX 5700XT, primero es una comparación sumamente descompensada y segundo es normal que estes mas que contento.

Con la Fury me lo he gozado muchísimo jugando a 2K@60fps... aunque si hubiera tenido GDDR5 posiblemente la cosa habría cambiado bastante, porque es cierto que según que juegos se atragantaban con las HBM... pero en los que funcionaba bien era una delicia. Un poco de OC por aquí, un poco de UV por allá... y la gráfica era fresquísima y rendía igual o más que la GTX 1070.
 
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...
Rendir rendiran flipantemente, seran todo lo eficientes que se quiera pero el consumo electrico es el que es...
MEGABURRADA.

Por supuesto, no te quito la razón.
 
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??

Lo he comentado unos cuantos mensajes atrás y sigo teniendo la misma impresión enlazado con lo que comentas:

Por mucho que nos hayan vendido sobre Ampere y las diferentes etapas de desarrollo sigo teniendo la impresión - no es nada más que eso - que este resultado final ha sido una medida a la desesperada por fallar el plan A .

Este plan A habría consistido en componentes más pequeños y mejores niveles de calidad, en una serie de innovaciones y metas a las que no se ha llegado... pero la presión que tienen encima es enorme y se trata de una empresa a la que no se le permite otra cosa que ser la mejor, la número 1, la bestia dominante y esto hace que tengan que ganar por las buenas ( innovación y eficiencia ) o por las malas a base de fuerza bruta ( el plan B ) y esto último es lo que han hecho.

No me cuadra demasiado esta solución final con las tendencias de CPUs / GPUs de los últimos años ergo... aquí ha habido patinazo y se ha optado por lo que fuera necesario para dar el siguiente mazazo sobre la mesa ( al cual estaban obligados, y en el contexto global actual todavía más ) .

Si todo esto se consigue revertir en 1-2 generaciones y dar un vuelco no me sorprendería en absoluto.
 
Tal vez en la siguiente generación veamos una mejora de rendimiento inferior a la que ha habido ahora (no lo neguemos, es una gran mejoría), pero tal vez unos consumos menores; es decir, una eficiencia aun mayor.

Por otro lado, han salido ya las reviews de diferentes ensambladoras. Y estoy decepcionado, la verdad. He visto reviews de gráficas con triple conector de 8 pines, como la MSI Gaming X Trio, que consume (en Furmark) 55 W más que la Founders Edition, pero sin ofrecer un rendimiento significativo (apenas un 2 % en 1080p y un 4 % en 4K). Para eso me quedo con la Palit Gaming Pro OC, que consume incluso menos en Furmark y es algo más fresca que la FE (aunque igual de ruidosa). Habrá que mirar precios, pero parece que, a priori, las únicas interesantes serán las 2-3 más baratas (o la que tenga una refrigeración más silenciosa) que se conformen con 2 conectores de 8 pines; en las demás, todo parece indicar que el consumo aumenta sin ofrecer nada a cambio, ni siquiera un margen interesante para overclocking. No sé, me esperaba que un mayor consumo ofreciera algo interesante a cambio. ¿Soy el único "raro" que piensa así?
 
Tal vez en la siguiente generación veamos una mejora de rendimiento inferior a la que ha habido ahora (no lo neguemos, es una gran mejoría), pero tal vez unos consumos menores; es decir, una eficiencia aun mayor.

Por otro lado, han salido ya las reviews de diferentes ensambladoras. Y estoy decepcionado, la verdad. He visto reviews de gráficas con triple conector de 8 pines, como la MSI Gaming X Trio, que consume (en Furmark) 55 W más que la Founders Edition, pero sin ofrecer un rendimiento significativo (apenas un 2 % en 1080p y un 4 % en 4K). Para eso me quedo con la Palit Gaming Pro OC, que consume incluso menos en Furmark y es algo más fresca que la FE (aunque igual de ruidosa). Habrá que mirar precios, pero parece que, a priori, las únicas interesantes serán las 2-3 más baratas (o la que tenga una refrigeración más silenciosa) que se conformen con 2 conectores de 8 pines; en las demás, todo parece indicar que el consumo aumenta sin ofrecer nada a cambio, ni siquiera un margen interesante para overclocking. No sé, me esperaba que un mayor consumo ofreciera algo interesante a cambio. ¿Soy el único "raro" que piensa así?

No había visto las reviews del resto pero me quedo un tanto helado si eso es todo lo que saca MSI ( precisamente de las que me interesaban ) .

Me temo que simplemente se ha cumplido lo especulado sobre Samsung pero esto nos lleva a preguntarnos que pueden ofercer las versiones TI , a este paso va a quedar en un farol peligroso porque implicaría un subidón de precio a cambio de un rendimiento previsiblemente injustificado. Salvo que Samsung sorprenda y mejore de aquí a un año y hagan una modificación que se antoja casi imposible.

A priori tenía claro que esperaría a otras ensambladoras y específicamente la versión TI de la 3080, ahora no lo tengo tan claro.
 
Ya se ha confirmado la 3080 de 20 Gb , lo digo por los ansias, si esperan un poco tienen algo mejor ( no se sabe el precio ) . Al igual que una 3070Ti de 16Gb , yo seguramente me espere un poco a ver, prisa no hay.
 
No había visto las reviews del resto pero me quedo un tanto helado si eso es todo lo que saca MSI ( precisamente de las que me interesaban ) .

Me temo que simplemente se ha cumplido lo especulado sobre Samsung pero esto nos lleva a preguntarnos que pueden ofercer las versiones TI , a este paso va a quedar en un farol peligroso porque implicaría un subidón de precio a cambio de un rendimiento previsiblemente injustificado. Salvo que Samsung sorprenda y mejore de aquí a un año y hagan una modificación que se antoja casi imposible.

A priori tenía claro que esperaría a otras ensambladoras y específicamente la versión TI de la 3080, ahora no lo tengo tan claro.

Mira, aquí está la review, debe de ser la de su buque insignia: MSI GeForce RTX 3080 Gaming X Trio Review

Según la review, en precio estaría unos 50-60 € por encima del precio de las FE (o de la Palit, más bien), lo que podría tener justificación en términos de ruido y temperatura (además de historias tipo soporte y demás). Al final es una ganancia del 4 % (en el mejor de los casos, que es en 4K) sobre la FE (más un 2,7 % extra que se le puede sacar de OC, aunque a la FE se le puede sacar un 3,9 %...; irónicamente la Palit tiene solo un 1,6 % de ganancia por OC) a cambio de 12 W más de consumo de media en gaming, que son 37 W en pico durante gaming, que se transforman en 55 W en Furmark.

Supongo que es posible agarrarse al consumo medio en gaming, pero habrá que hilar fino. Igual hay que estar atento a alguna gráfica que consuma lo que la Palit (o la FE) pero con 3 conectores de 8 pines, a ver su margen de OC...

Al final la mejor opción será, como digo, o la más barata, o la más fresca, o la más silenciosa, o la que menos consuma (o un combo de varias de estas opciones), porque realmente no va a haber grandes diferencias.
 
Mira, aquí está la review, debe de ser la de su buque insignia: MSI GeForce RTX 3080 Gaming X Trio Review

Según la review, en precio estaría unos 50-60 € por encima del precio de las FE (o de la Palit, más bien), lo que podría tener justificación en términos de ruido y temperatura (además de historias tipo soporte y demás). Al final es una ganancia del 4 % (en el mejor de los casos, que es en 4K) sobre la FE (más un 2,7 % extra que se le puede sacar de OC, aunque a la FE se le puede sacar un 3,9 %...; irónicamente la Palit tiene solo un 1,6 % de ganancia por OC) a cambio de 12 W más de consumo de media en gaming, que son 37 W en pico durante gaming, que se transforman en 55 W en Furmark.

Supongo que es posible agarrarse al consumo medio en gaming, pero habrá que hilar fino. Igual hay que estar atento a alguna gráfica que consuma lo que la Palit (o la FE) pero con 3 conectores de 8 pines, a ver su margen de OC...

Al final la mejor opción será, como digo, o la más barata, o la más fresca, o la más silenciosa, o la que menos consuma (o un combo de varias de estas opciones), porque realmente no va a haber grandes diferencias.
Por eso mismo yo me inclino por la evga ftw3, a fslta de review pero promete por ruido y buenas temperaturas, además de buen silicio y garantía evga. Lo que no sé es si la ultra sacrifacará temperatura por rendimiento, lógicamente, y si por ende no sería mejor por temps y ruido la ftw3 a secas antes que la ultra.
 
Ya se ha confirmado la 3080 de 20 Gb , lo digo por los ansias, si esperan un poco tienen algo mejor ( no se sabe el precio ) . Al igual que una 3070Ti de 16Gb , yo seguramente me espere un poco a ver, prisa no hay.

Creo que haces lo mejor Compi, yo voy a hacer lo mismo. Veo que hay un salto muy grande en precio de la 3080 a la 3090, estoy convencido que ese salto se rellenara con las posibles Super, TI, y mas GB. Asi que lo mejor es esperar a que salga mas o menos todo lo de Nvidia, y lo de AMD, y luego elegir.

Un saludo.
 
La cuestion es que si estamos asi por las RTX R080,con las RTX3070 van a haber peleas a cuchillo en la puerta de las tiendas de informatica...
 
La cuestion es que si estamos asi por las RTX R080,con las RTX3070 van a haber peleas a cuchillo en la puerta de las tiendas de informatica...

Ni mas ni menos. Lo mejor es esperar sentadito y viendo el panorama, y cuando se calmen las cosas, comprar con cabeza.

Un saludo.
 
Arriba