• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Son 8gb Vram suficiente ? Rtx 3070

Y E Y O

Master Chapuzas
Registrado
30 May 2017
Mensajes
3.448
Puntos
113
Pues nadie lo sabe a futuro .

 
A futuro no podemos hacer estimaciones, ya que según mucha gente el HT o SMT desde hace 2 o 3 años iban a ser imprescindibles al igual que 8 núcleos.
Y de momento, nada.

Los 16GB de RAM, no lo són a día de hoy, pero 8GB en algunos juegos se quedan cortos, por poco, en altas resoluciones, y los DIMMs son de 8GB.

Los 8GB de VRAM a día de hoy no son pocos, ni tan siquiera justos.
Pero si que hay una serie de juegos que por mala optimización demandan mucha VRAM como caché, que no de uso.

O acaso Resident Evil 2 necesita si o si de los 13GB de VRAM para verse bien?

Cyberpunk 2077 coge toda la VRAM disponible como caché, pero usa unos 5,5GB como máximo a 4K.

Realmente, lo que nos pasa es que no sabemos de lo que hablamos y nos sale "el cuñado interior".
 
Si los juegos estuviesen optimizados seguramente no harían falta... Pero claro optimizar conlleva más tiempo de producción a un estudio, y tiempo no les sobra.
Imagínate Cyberpunk con los años que ha durado para producirse, como para invertir más tiempo en optimizar se.
 
Esta claro que a dia de HOY, son suficientes.
El tema es por lo que viene, por lo que cuesta un gpu por 8gb !! :unsure:
 
Si los juegos piden mas Vram será a largo plazo y progresivente, como lo del tema núcleos, a día de hoy aún se puede jugar con un 4 Cores aunque se va estandarizando 6 cores incluso más.

De momento podemos dormir tranquilos los que tenemos gráficas de 8 GB, también los que tienen menos aunque bajen calidades gráficas.
 
Para 4k yo sí que creo que en un par de años será insuficiente para ir a tope; si piensas jugar en 1080p o 1440p posiblemente se puede sumar un par de añitos más. Suficiente para el cambio de ciclo y para rentabilizar la pasta que cuesta.
 
Si los juegos piden mas Vram será a largo plazo y progresivente, como lo del tema núcleos, a día de hoy aún se puede jugar con un 4 Cores aunque se va estandarizando 6 cores incluso más.

De momento podemos dormir tranquilos los que tenemos gráficas de 8 GB, también los que tienen menos aunque bajen calidades gráficas.
Hombre por poderse jugar se puede con un Dual Core, y con una gpu de 2gb vram, pero la cosa es como juegas, a que calidad-fps.
Ya los 4 nucleos estan al limite, y las gpu con 4gb ambos lo pasan mal o no llegan en juegos pesados.
 
Última edición:
Hombre por poderse jugar se puede con un Dual Core, y con una gpu de 2gb vram, pero la cosa es como juegas, a que calidad-fps.
Ya los 4 nucleos esta al limite, y las gpu con 4gb ambos lo pasan mal o no llegan en juegos pesados.
Sí, por eso puse la palabra "a tope". Jugué al Battlefield V con mi r9 290 sin problemas. Creo que 8 de vram bastarán para 1080/1440p al menos 3-4 años yendo bien de fps, como mínimo.
 
Para 4k yo sí que creo que en un par de años será insuficiente para ir a tope; si piensas jugar en 1080p o 1440p posiblemente se puede sumar un par de añitos más. Suficiente para el cambio de ciclo y para rentabilizar la pasta que cuesta.
La única GPU que puede mover los 4K con la suficiente estabilidad a día de hoy es la RTX 3080/RX 6800XT (de ahí para arriba) y están bien servidas de VRAM.

Las RTX 2080 Ti/RTX 3070/RX6800 aunque pueden mover según que títulos a 4K de manera competente, no son lo suficiente potentes como para ser "GPUs para 4K".
Aún hay juegos que les cuesta llegar a los 60fps estables a 4K.
 
Aquí en este foro he leído infinitas veces que con 8gb ya no puedes jugar a nada por que te quedas corto.

Luego juegas a juegos demandantes a 4k todo a tope con una 3070 y resulta que ocupas unos 6Gb , 7 a lo sumo.

Podreis decir lo que querais, pero a mi me funciona estupendamente bien, y estamos hablando de juegos bastante demandantes , que si, que el futuro bla bla bla ... pero cuando llegue ese futuro donde una 3070 se queda "corta" de verdad, pues seguramente ya habrán otras gráficas y ya no estaré usando esa 3070 .

Así como gráfica para usar ahora mismo funciona estupendamente bien, y no tiene ninguna carencia de vram . Osea que es una buena gráfica y hay que disfrutarla. Y que cada cual disfrute con lo que tenga.

Faltaría mas, .... gráficas acabadas de salir, que son buenísimas ( recordemos que iguala rendimiento de tope gama anterior ) y la gente se plantea si son buenas para jugar o no, ..

Acaso antes de salir las 3070 .. las 2080Ti eran malas ?? ..vamos no me jodas..., incluso teniendo un 11gb y la otra 8gb estan a la par en juegos actuales demandantes, y con RT mucho mejor la 3070.

Resumen: Disfruten lo que tengan y aprovechen ahora, que el futuro ya vendrá.. si tienes una 3070 ... disfrutala !!!! , y no te ralles con la vram.
 
Podreis decir lo que querais, pero a mi me funciona estupendamente bien, y estamos hablando de juegos bastante demandantes , que si, que el futuro bla bla bla ... pero cuando llegue ese futuro donde una 3070 se queda "corta" de verdad, pues seguramente ya habrán otras gráficas y ya no estaré usando esa 3070 .
Correcto, antes se le quedarán grandes los 4K por potencia que por VRAM.
Como le pasó a la pimera Titan, se quedó pequeño mucho antes el GPU que el VRAM (y eran 6GB!!!)
O lo que les pasa a las RX 480, 580 y 590, que llevan 8GB que no llegan a usar nunca al completo.
Antes se quedarán obsoletas por GPU.
 
Correcto, es que la tendencia es a requerir mas poténcia gráfica .

Aparte no se tiene en cuenta que dentro de poco esta la tecnología que van a utilizar las consolas, de acceder a las texturas directamente del SSD . Lo cual la gráfica no cargará tantas texturas en su memoria y utilizarán mucho menos.

Mucha memoria de la que utiliza no es memoria real utilizada, si no que se la reserva la gpu ( por si acaso ) y va cargando texturas sin borrar las anteriores por si las vuelve a utilzar.

Veremos el resultado en pc si funciona realmente ;)
 
Yo nunca dije que no se pudiera jugar, lo que se quedara corta o no,aun habra que verlo, que segun comenta Iker en ese video, si quedaran corta va a utilizar la ram, asi que mas tranquilos pueden estar los que lleven 8gb.
Lo que YO ,siempre dije y sigo manteniendo es pagar lo que vale un 3070 teniendo solo 8gb vram. Nvidia se deberia haber estirado un poco y meterle 10gb igual que a la 3080 16gb, pero claro para eso tenian los modelos TI-Super en menten, para seguir sacandonos los euritoss 💸💵
 
una cosa es lo que uno necesita y otro lo que te hacen creer que necesitas , realmente . llamado marketing , graficas a precio de orro , que saliendo las de 12 gigas pareceran baratas. costando un pico si se encuentran
 
Son necesarias más de 8gb? Por supuesto que no. Estaremos mucho tiempo sin necesitar más? Nadie lo sabe. Evidentemente si llegamos a este punto bajando calidad gráfica, solucionado. El problema es hacer una inversión que ronda entre los 700€ y 1000€, y ver que en un año, gente que quiera jugar a tope, se le quede corta.
 
Una RTX 2080TI por 520E (precio oficial) con mejores nucleos RT y con suficiente memoria para jugar os parece cara?

Si que es cierto que tal vez deberia haber salido con mas memoria. Si no lo hicieron probablemente es por hacer la guarrada de los modelos super pero, aun asi esta bastante bien. Y mas teniendo en cuenta el RTX i/o y el dlss que deberian quitar carga a la VRam.

Aun asi, hay que decir que en juegos como Final fantasy XV a 4k utiliza 7 gigas reales de Vram o CoD warzone 7 en 1080p 7 reales tambien.

Para 4k si que la veo problematica, pero para resoluciones mas bajas no.

Aunque me uno a las conclusiones, nadie puede saber a futuro que pasara. Aunque con las consolas con 16 gigas de memoria compartida entre Ram y Vram no deberia dispararse los requisitos de Vram demasiado al no ser, que los juegos vengan mal optimizados.
 
Discrepo con lo del Warzone , lo que hace es ocupar la memoria libre en caché , para tenerla por si acaso, pero no la está usando.

De hecho en 4K todo al máximo ronda los 7gb también , que seguramente reales sean menos , así que en 1080p ni de lejos será lo mismo, será bastante menos.
 
Son necesarias más de 8gb? Por supuesto que no. Estaremos mucho tiempo sin necesitar más? Nadie lo sabe. Evidentemente si llegamos a este punto bajando calidad gráfica, solucionado. El problema es hacer una inversión que ronda entre los 700€ y 1000€, y ver que en un año, gente que quiera jugar a tope, se le quede corta.
En un año dudo muchísimo que saquen títulos que 8 gb de vram se quede corta, No sé qué vendrá pero lo dudo mucho. Otra cosa es en 3,4 o 5 años. Y otro asunto es pagar 700-1000€ por una gráfica que cuesta 500 y pico.
 
Discrepo con lo del Warzone , lo que hace es ocupar la memoria libre en caché , para tenerla por si acaso, pero no la está usando.

De hecho en 4K todo al máximo ronda los 7gb también , que seguramente reales sean menos , así que en 1080p ni de lejos será lo mismo, será bastante menos.
El MSI Afterburnes hace un par de meses incorporó una utilidad que está bastante escondida, que es mas o menos capaz de decirte la VRam que esta siendo utilizada en ese momento por las distintas aplicaciones del sistema. Cacheada estaban 8 y usando 7. Y es bastante consistente con el hecho de que el juego a mucha gente con tarjetas mas humildes les vaya a trompicones o muy inestable.

En un directo por Twitch de Michael Quesada lo vi.
 
Si amd no hubiese sacado graficas con 16gb, Nvidia no estaria por la labor de sacar versiones nuevas con mas memorias. Pero amd tenia que sacar algo por encima de nvidia y de ahi poner esas 16gb como "standard". Actualmente, para mi, puro marketing porque lo veo innecesario. Pero en un futuro proximo no se sabe si seran necesarias mas de 8g. Yo lo veo dificil, pero vuelvo a repetir un punto que ya dije, viendo como optimizan los juegos los estudios, no lo veo tan lejano.
 
Arriba