• ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Primera foto 3090


Razon por la que Nvidia no ha usado memoria GDDR6X de 21 Gbps.

Un saludo.
 
Sinceramente, no tengo mucha fe en que los precios esten muy a la baja, sobre todo si llevan memoria hbm2 como se rumorea, aun que en las gpus, algo mas baratas seran que Nvidia. En los cpu,s no estan ya tan baratos, viendo queestan a la par o incluso por delante de Intel, ya van como todas las empresas a cojer 💷💰💷 pasta posible. De todas maneras ya falta poco para salir de dudas al menos con Zen3.

sl2.
Las RX 6000 no van a llevar HBM2 sino GDDR6 y además unas caches muy altas. Si llega algún modelo con HBM2 serian modelos RadeonPro, no para juegos.
 
Las RX 6000 no van a llevar HBM2 sino GDDR6 y además unas caches muy altas. Si llega algún modelo con HBM2 serian modelos RadeonPro, no para juegos.

Eso tenia entendido yo, ojala llegasen las altas de gama para juegos con ella, pero como dices, solo llegaran las "profesionales".

Un saludo.
 
Las RX 6000 no van a llevar HBM2 sino GDDR6 y además unas caches muy altas. Si llega algún modelo con HBM2 serian modelos RadeonPro, no para juegos.
Por mí que pongan el tipo de memoria que quieran, pero que su rendimiento esté por lo menos a la par de su competencia en Nvidia y así todos nos beneficiaremos.

Por cierto, una pregunta off topic que igual tú puedes resolverme compañero, en un monitor FreeSync en la mayoría de casos puedes activar por software GSync, pero en un monitor con GSync es posible activar FreeSync? Es por saber si voy a tener que "morir al palo" de Nvidia hasta que cambie de monitor o tendré la alternativa de las AMD? Disculpa por el "atraco" 😬

Un saludo.
 
Por mí que pongan el tipo de memoria que quieran, pero que su rendimiento esté por lo menos a la par de su competencia en Nvidia y así todos nos beneficiaremos.

Por cierto, una pregunta off topic que igual tú puedes resolverme compañero, en un monitor FreeSync en la mayoría de casos puedes activar por software GSync, pero en un monitor con GSync es posible activar FreeSync? Es por saber si voy a tener que "morir al palo" de Nvidia hasta que cambie de monitor o tendré la alternativa de las AMD? Disculpa por el "atraco" 😬

Un saludo.

Interesante, no se si mi monitor podria ir con GSync ya que es FreeSync :unsure:
 
Eso tenia entendido yo, ojala llegasen las altas de gama para juegos con ella, pero como dices, solo llegaran las "profesionales".

Un saludo.
Pero confiesa de una vez "condenao" :D ... ¿ dónde se quedan las AMD según tu fuente ?
 
Respecto a FreeSync y G-Sync (@y e y o y @tboanibal ) ambas tecnologías aprovechan el Variable Refresh Rate de VESA, son tecnologías análogas, tan sólo que Nvidia usaba un chip propietario para permitir activarlo, con el sobrecoste que tenía al comprar un monitor G-Sync que podía llegar a 200€ en algunos casos respecto a la versión FreeSync.

Hasta donde yo he podido probar en monitores actuales... he jugado con mi RX 5700XT en un monitor G-Sync Ultimate (equivalente a Freesync 2, permitiendo HDR) y con una RTX 2080ti en un monitor FreeSync 2, en ambos casos sin ningún problema. Con FreeSync 1 y los G-Sync antiguos no he llegado a probar.

Eso tenia entendido yo, ojala llegasen las altas de gama para juegos con ella, pero como dices, solo llegaran las "profesionales".

La cuestión es que no sé hasta que punto para juegos sería un avance o un paso atrás... la experiencia con Fury, Vega y Radeon VII es que las HBM/HBM2 no terminan de funcionar bien en gaming, por lo que sólo encarecen el producto absurdamente. El camino que están marcando ahora me parece más lógico y les funcionará mejor: olvidarse de memorias con un BUS altísimo y poner la carne en el asador con unas cachés mucho mayores.
 
Eso tenia entendido yo, ojala llegasen las altas de gama para juegos con ella, pero como dices, solo llegaran las "profesionales".
La cuestión es que no sé hasta que punto para juegos sería un avance o un paso atrás... la experiencia con Fury, Vega y Radeon VII es que las HBM/HBM2 no terminan de funcionar bien en gaming, por lo que sólo encarecen el producto absurdamente. El camino que están marcando ahora me parece más lógico y les funcionará mejor: olvidarse de memorias con un BUS altísimo y poner la carne en el asador con unas cachés mucho mayores.
A ver, volvemos a lo mismo de siempre, más es mejor, pero las memorias HBM2 son Overkill para estos chips, al fin y al cabo la memoria es lo que menos rendimiento saca en una GPU, se gana más con las velocidades del GPU que con las velocidades de la memoria, así como la cantidad de VRAM, por debajo si que afecta negativamente, pero por encima no se saca más provecho.
Las Rx480/580 rinden igual en los modelos 4GB y 8GB, otra cosa es que los 4GB se queden cortos en juegos puntuales y de tirones, pero ambas GPUs son iguales.
 
Respecto a FreeSync y G-Sync (@y e y o y @tboanibal ) ambas tecnologías aprovechan el Variable Refresh Rate de VESA, son tecnologías análogas, tan sólo que Nvidia usaba un chip propietario para permitir activarlo, con el sobrecoste que tenía al comprar un monitor G-Sync que podía llegar a 200€ en algunos casos respecto a la versión FreeSync.

Hasta donde yo he podido probar en monitores actuales... he jugado con mi RX 5700XT en un monitor G-Sync Ultimate (equivalente a Freesync 2, permitiendo HDR) y con una RTX 2080ti en un monitor FreeSync 2, en ambos casos sin ningún problema. Con FreeSync 1 y los G-Sync antiguos no he llegado a probar.
Mi monitor es un Acer XB271HU que no es G-Sync Ultimate, así que veo que me tocará probar y si no me funciona seguir con Nvidia 😅

Gracias por la respuesta, más que nada era por ver si tendría la opción de elegir futuras GPU`s de AMD o no.


Saludos.
 
A ver, volvemos a lo mismo de siempre, más es mejor, pero las memorias HBM2 son Overkill para estos chips, al fin y al cabo la memoria es lo que menos rendimiento saca en una GPU, se gana más con las velocidades del GPU que con las velocidades de la memoria, así como la cantidad de VRAM, por debajo si que afecta negativamente, pero por encima no se saca más provecho.
Las Rx480/580 rinden igual en los modelos 4GB y 8GB, otra cosa es que los 4GB se queden cortos en juegos puntuales y de tirones, pero ambas GPUs son iguales.

Discrepo. Las memorias HBM/HBM2 han demostrado claramente funcionar "regular" para gaming... no por ser overkill (tan sólo lo son a nivel de ancho de banda)... sino porque los juegos no están (ni van a estar) optimizados para estas memorias y prefieren mayores velocidades, sólo aprovechando un mayor BUS en resoluciones más altas. Y he tenido la R9 Fury y claramente en 1080p quedaba por debajo de las GTX980ti y GTX1070; en 2K la cosa se quedaba muy igualada; mientras que en 4K ganaba la Fury.

¿Rinden igual los modelos de RX480/580 de 4GB y 8GB? Obviamente no... en 1080p la diferencia es pequeña/nula, pero en 1440p los 4GB se quedan claramente cortos en juegos potentes, mientras que la de 8GB para 1440p a 60Hz en medios/altos aguanta el tipo bastante bien.

¿No influye la frecuencia de las memorias?? Yo después de años haciendo perrerías a la Fury claramente te digo que en muchos juegos y benchmarks ganaba más oceando las memorias que subiendo el clock a la GPU. Puedes revisar el hilo The Fast AMD the FURYous ahí tienes resultados de OC de varios compañeros del foro donde fui recopilando resultados en multiples bench con las frecuencias y ajustes de cada uno.
 
OJO !!!!!!!!!!!!!!!, ya estan empezando a salir los primeros problemas de esta generacion;


Despues de ver esta noticia, ya no me queda tan claro si compensa el desembolso de 700-800€ mas en la 3090 respecto de la 3080. Me han confirmado que para que sea mas grande la diferencia, hay que desbloquear la 3090 con sunt mod, algo que no esta al alcance de todos, que anula la garantia, y que lleva el consumo de la VGA (3090) a 700W, si habeis leido bien, 700W medido con medidor de W en pared, osea que es real.

Bajo mi punto de vista un desproposito. Aunque se espere a la 3080 de 20 GB, que saldra sobre los 100€, la diferencia de precio sigue siendo muy grande, para la poca ganancia de rendimiento. (es mi opinion).


Un saludo.
 
Última edición:
OJO !!!!!!!!!!!!!!!, ya estan empezando a salir os primeros problemas de esta generacion;


Despues de ver esta noticia, ya no me queda tan claro si compensa el desembolso de 700-800€ mas en la 3090 respecto de la 3080. Me han confirmado que para que sea mas grande la diferencia, hay que desbloquear la 3090 con sunt mod, algo que no esta al alcance de todos, que anula la garantia, y que lleva el consumo de la VGA (3090) a 700W, si habeis leido bien, 700W medido con medidor de W en pared, osea que es real.

Bajo mi punto de vista un desproposito. Aunque se espere a la 3080 de 20 GB, que saldra sobre los 100€, la diferencia de precio sigue siendo muy grande, para la poca ganancia de rendimiento. (es mi opinion).


Un saludo.
Entre la Titan RTX y la RTX 2080Ti tampoco había una mejora significativa a la hora de jugar costando la primera el doble. Creo que la 3090 está más orientada al ámbito profesional y siendo como comentas, dudo que le compense a nadie el gasto extra que supone. La futura RTX 3080 de 20GB debería ser la elegida para los usuarios más exigentes sin "derrochar" el dinero.

De todas formas Pedro, tú vas bien "equipado" con esa fuente de 1600W, así que si te "calientas" puedes tirarte a por esa 3090 "unlocked" sin problemas... :ROFLMAO:😂😂


Un saludo.
 
Vaya tela.
Pero por otro lado, vaya bestia de GPU.
 
Entre la Titan RTX y la RTX 2080Ti tampoco había una mejora significativa a la hora de jugar costando la primera el doble. Creo que la 3090 está más orientada al ámbito profesional y siendo como comentas, dudo que le compense a nadie el gasto extra que supone. La futura RTX 3080 de 20GB debería ser la elegida para los usuarios más exigentes sin "derrochar" el dinero.

De todas formas Pedro, tú vas bien "equipado" con esa fuente de 1600W, así que si te "calientas" puedes tirarte a por esa 3090 "unlocked" sin problemas... :ROFLMAO:😂😂


Un saludo.

Mi idea inicial, era cogerme una 3090, pero viendo las noticias sobre la diferencia de rendimiento real............prefiero esperar a ver que tal sale la 3080 20Gb, ver tambien una posible salida de una 3080 TI o Super, que reduciria esa diferencia con la 3090 aun mas, ver si AMD nos sorprende con algo interesante y esperar a que esos problemas iniciales de las 3080/3090 se solucionen. Al final es mucha pasta para que te este dando problemnas.

Un saludo.
 
Bueno, no diré tanto como que era de esperar, pero en el foro se comentó mucho que mejor esperarse, pero la gente se ha tirado a la piscina sin ver si había agua, ahora pasa lo que pasa.

Que mes más largo va a ser para ver que saca AMD. Yo de momento solo tengo el monitor, buena compra por cierto el nuevo dell de 27' a 1440p.
 
700 W en pared, que si quitamos la ineficiencia de la fuente, el consumo del procesador y el del resto de componentes puede suponer que la gráfica consume unos ¿500 W, tal vez? 3 conectores de 8 pines permitirían a la gráfica consumir hasta 525 W, así que la cosa cuadraría.

Una barbaridad, en cualquier caso. Y por partida doble. Porque si te la quieres sacar, te la sacas del todo y con todas las consecuencias; y además, parecería que la 3080 (que no chupa poco, precisamente) consume "poco".
 
700 W en pared, que si quitamos la ineficiencia de la fuente, el consumo del procesador y el del resto de componentes puede suponer que la gráfica consume unos ¿500 W, tal vez? 3 conectores de 8 pines permitirían a la gráfica consumir hasta 525 W, así que la cosa cuadraría.

Una barbaridad, en cualquier caso. Y por partida doble. Porque si te la quieres sacar, te la sacas del todo y con todas las consecuencias; y además, parecería que la 3080 (que no chupa poco, precisamente) consume "poco".
Ya lo dije al principio del post, es la GPU más alta de Nvidia y debe ser algo muy bestia, porqué es un "ponemos los huevos encima la mesa".
Debe ser brutalmente potente en cuanto a gráficos y en cuanto a consumos, los BMW serie 7, los Audi A8 o los Mercedes Clase S con motores 4.0 o 5.0 no son mecheros, ni lo pretenden.
Son lo que son, pero es que así debe ser, para GPUs de poco consumo ya saldrán las 3060 y 3070 con su desempeño pertinente.
No puedes comprarte un Ferrari y esperar que consuma poco.
 
700 W en pared, que si quitamos la ineficiencia de la fuente, el consumo del procesador y el del resto de componentes puede suponer que la gráfica consume unos ¿500 W, tal vez? 3 conectores de 8 pines permitirían a la gráfica consumir hasta 525 W, así que la cosa cuadraría.

Una barbaridad, en cualquier caso. Y por partida doble. Porque si te la quieres sacar, te la sacas del todo y con todas las consecuencias; y además, parecería que la 3080 (que no chupa poco, precisamente) consume "poco".

No Compi, no. 700W en pared quitando ya el resto de componentes. Al hacerle sunt mod y dejarle que consuma/rinda sin ninguna restriccion chupa eso la cabrona.

Un saldudo.
 
Dicen las malas lenguas que cuando la enchufes al PC y lo enciendas este empieza a sonar así
 
No Compi, no. 700W en pared quitando ya el resto de componentes. Al hacerle sunt mod y dejarle que consuma/rinda sin ninguna restriccion chupa eso la cabrona.

Un saldudo.
Haces un SLI de dos 3090 "desatadas" y tienes a la Guardia Civil a los pocos días en tu casa buscando la plantación de hierba jajaja
 
Arriba