En principio a las 15h, tal cual ya fué con las reviews.
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...La verdad es que son más eficientes, pero al aumentar mucho más su rendimiento, al final aumenta el consumo.
Lo que no quita que para mí me parezca decepcionante un consumo tan alto. Podría tener un pase si fuese la 3090. Pero que la 3080 chupe más que hacienda... Sinceramente, en esa gráfica creía que el segundo conector de 8 pines era de 8 y no de 6 (sí, ya sé que está el adaptador en medio, pero creo que se entiende lo que quiero decir) para dar margen al OC, no porque realmente fuera necesario; me esperaba unos consumos de unos 280 W más o menos.
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.Para mí esto tiene una explicación clara, con 3 puntos claves:
1. Sale nueva generación de consolas y a los fabricantes les toca dar un salto importante de rendimiento para ofrecer algo a donde las consolas no lleguen. La XBOX series X se viene con una GPU similar a una RTX2080 por unos 600€ y la PS5 algo equivalente a una RTX 2060S/2070 por unos 400-500€ (según versión).
2. La miniaturización (reducción de nm) favorece mucho la eficiencia energética, sobretodo cuando mantengas unos voltajes cercanos/inferiores a 1.0V (cuando una R9 390X funcionaba a 1.2V sin inmutarse), ya que al reducir el tamaño del chip cuesta más disiparlo.
R9 390 >>> fabricado a 28nm >> 2560 cores a 1060MHz >> TDP 275W >> 438 mm2
RX5700XT >> fabricado a 7nm >> 2560 cores a 1925MHz >> TDP 225W >> 251 mm2
>>>> Diferencia de rendimiento... la RX 5700XT rinde más del doble y es capaz de funcionar con menos W, ser más fresca y disipar el calor con casi la mitad de superficie.
3. ¿Cómo puedes seguir aumentando rendimiento ahora que tus chips son pequeños y eficientes? Pues haciendo chips más grandes y meter muchos más CUs/SMUs (grupos de cores) en el chip. Al meter muchos más cores (incluso duplicarlos) te puedes permitir bajar algo las frecuencias y que todo vaya fresco aún con una gráfica de más de 350W de consumo cuando antes superar los 250W era un dolor de cabeza.
>>>> El consumo nunca ha sido el problema, el problema es el calor. Y las actuales gráficas son capaces de "auto-ocearse" y seguir subiendo frecuencias siempre que la temperatura lo permita. La RX5700XT llegaba con frecuencias boost de 1925MHz, la realidad es que superabas los 2030MHz sin tocar nada. A estas RTX 3000 les pasa similar, marcan 1700MHz de boost, pero la realidad es que superan los 1800MHz sin ningún problema mientras la temperatura lo permite.
PD: la R9 390X no llegué a probarla, pero tengo la R9 Fury (que era una pequeña evolución) pasando de 44CUs a 52CUs y cambiando las memorias por HBM. Y aunque estaba muy contento con la Fury... lo estoy mucho más con la RX 5700XT.
La Fury era un querer evolucionar del rebrand de la 390 en una epoca donde Nvidia doblegaba de largo a AMD.
Y con respecto a la 390X salvo las memorias hbm, la gpu no era mucho mas eficiente y su rendimiento no era mucho mayor.
Para mi la Fury fue un fracaso como la 390 un engaño refrito de la 290.
Por tanto es normal que si comparas esas tarjetas con una RX 5700XT, primero es una comparación sumamente descompensada y segundo es normal que estes mas que contento.
A mi si ya me parece una burrada el consumo de mi veterana 390X, el de estas nuevas "monsters" ya ni te cuento...
Rendir rendiran flipantemente, seran todo lo eficientes que se quiera pero el consumo electrico es el que es...
MEGABURRADA.
Desde luego lo que son las cosas...
En la epoca que salió mi R9 390X de 300w de consumo era un escandalo y AMD y Nvidia se centraron posteriormente en sacar modelos mas potentes y eficientes...
Cada vez que asomaba la cabeza una grafica "comevatios" la tendencia era echarse las manos a la cabeza...
Y ahora la industria, la peña acepta y hasta ve muy normal que una grafica se pueda jamar mas de 300 o de carca de 400 vatios.
Sinceramente, si esto no es un enorme paso atras en eficiencia energetica para conseguir una grafica mas potente que alguien me lo diga...
De todos modos en la mayoria de hogares (no todos) los papás son lo que pagan el recibo de la luz de los gamers...
Entonces..Quien dijo problema de eficiencia energetica??
Tal vez en la siguiente generación veamos una mejora de rendimiento inferior a la que ha habido ahora (no lo neguemos, es una gran mejoría), pero tal vez unos consumos menores; es decir, una eficiencia aun mayor.
Por otro lado, han salido ya las reviews de diferentes ensambladoras. Y estoy decepcionado, la verdad. He visto reviews de gráficas con triple conector de 8 pines, como la MSI Gaming X Trio, que consume (en Furmark) 55 W más que la Founders Edition, pero sin ofrecer un rendimiento significativo (apenas un 2 % en 1080p y un 4 % en 4K). Para eso me quedo con la Palit Gaming Pro OC, que consume incluso menos en Furmark y es algo más fresca que la FE (aunque igual de ruidosa). Habrá que mirar precios, pero parece que, a priori, las únicas interesantes serán las 2-3 más baratas (o la que tenga una refrigeración más silenciosa) que se conformen con 2 conectores de 8 pines; en las demás, todo parece indicar que el consumo aumenta sin ofrecer nada a cambio, ni siquiera un margen interesante para overclocking. No sé, me esperaba que un mayor consumo ofreciera algo interesante a cambio. ¿Soy el único "raro" que piensa así?
No había visto las reviews del resto pero me quedo un tanto helado si eso es todo lo que saca MSI ( precisamente de las que me interesaban ) .
Me temo que simplemente se ha cumplido lo especulado sobre Samsung pero esto nos lleva a preguntarnos que pueden ofercer las versiones TI , a este paso va a quedar en un farol peligroso porque implicaría un subidón de precio a cambio de un rendimiento previsiblemente injustificado. Salvo que Samsung sorprenda y mejore de aquí a un año y hagan una modificación que se antoja casi imposible.
A priori tenía claro que esperaría a otras ensambladoras y específicamente la versión TI de la 3080, ahora no lo tengo tan claro.
Por eso mismo yo me inclino por la evga ftw3, a fslta de review pero promete por ruido y buenas temperaturas, además de buen silicio y garantía evga. Lo que no sé es si la ultra sacrifacará temperatura por rendimiento, lógicamente, y si por ende no sería mejor por temps y ruido la ftw3 a secas antes que la ultra.Mira, aquí está la review, debe de ser la de su buque insignia: MSI GeForce RTX 3080 Gaming X Trio Review
Según la review, en precio estaría unos 50-60 € por encima del precio de las FE (o de la Palit, más bien), lo que podría tener justificación en términos de ruido y temperatura (además de historias tipo soporte y demás). Al final es una ganancia del 4 % (en el mejor de los casos, que es en 4K) sobre la FE (más un 2,7 % extra que se le puede sacar de OC, aunque a la FE se le puede sacar un 3,9 %...; irónicamente la Palit tiene solo un 1,6 % de ganancia por OC) a cambio de 12 W más de consumo de media en gaming, que son 37 W en pico durante gaming, que se transforman en 55 W en Furmark.
Supongo que es posible agarrarse al consumo medio en gaming, pero habrá que hilar fino. Igual hay que estar atento a alguna gráfica que consuma lo que la Palit (o la FE) pero con 3 conectores de 8 pines, a ver su margen de OC...
Al final la mejor opción será, como digo, o la más barata, o la más fresca, o la más silenciosa, o la que menos consuma (o un combo de varias de estas opciones), porque realmente no va a haber grandes diferencias.
Ya se ha confirmado la 3080 de 20 Gb , lo digo por los ansias, si esperan un poco tienen algo mejor ( no se sabe el precio ) . Al igual que una 3070Ti de 16Gb , yo seguramente me espere un poco a ver, prisa no hay.
La cuestion es que si estamos asi por las RTX R080,con las RTX3070 van a haber peleas a cuchillo en la puerta de las tiendas de informatica...