• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Hilo RTX serie 4000.

Totalmente.. con la 2080Ti fui capaz de jugarlo a 4k con DLSS y las opciones variadas si queria el RT.

El RT consume mucho, si. Pero bien implementado se nota. Ahora estoy rejugando el Metro Exodus todo a full con RT a full y aun teniendo su tiempo se ve genial, y te puedo decir que las luces/sombras se notan respecto la versión sin RT.

Si en algun momento la GPU no puede con el RT, ya lo quitaré..
Desde luego, respeto la opinion de todos, pero a veces pienso cuando dicen que no les interesa el RT, que no han jugado con el a full en juegos en los que se nota bastante. Que si 4 ratillos y brillo en los charcos, no se que habran vistoo. El Rt para mi mola y muchoo, pero bueno cada cual... 🤪
 
Última edición:
Por cierto, que en el disqus no paran de comentar esto, ¿pensáis que el rendimiento (yo con ella estoy contento y es lo que importa, puntualizo) de la 4070 es malo para ser de su gama? Es que dicen que debería ser una 4060, pero yo digo que ni de coña. En las tres generaciones anteriores tuve series 60 y puedo decir que la 2060 daba rendimiento de 1070ti y la 3060 de 2070 a secas. Entonces, ¿una 4070 por rendir como una 3080 (que encima la 3080 dio el mayor salto de potencia entre generaciones que se recuerda) consideráis que es mala?
 
Por cierto, que en el disqus no paran de comentar esto, ¿pensáis que el rendimiento (yo con ella estoy contento y es lo que importa, puntualizo) de la 4070 es malo para ser de su gama? Es que dicen que debería ser una 4060, pero yo digo que ni de coña. En las tres generaciones anteriores tuve series 60 y puedo decir que la 2060 daba rendimiento de 1070ti y la 3060 de 2070 a secas. Entonces, ¿una 4070 por rendir como una 3080 (que encima la 3080 dio el mayor salto de potencia entre generaciones que se recuerda) consideráis que es mala?

Hombre si lo abstraes del panorama actual, por 650e una grafica asi habria de ofrecer mas. Pero relativo al momento, por ejemplo respecto a una 6800xt estan ahi ahi de rendimiento, la 6800xt 50e mas barata, y te da 4 gbs mas de vram. La 4070 te da los perks de nvidia, mas eficiente raytracing bastante mejor nvidia reflex dlss y demas chorradas. Tampoco hay uan diferencia asi tangible creo yo, se ponen deacuerdo entre ellos para ofrecernos un paquete de valor similar a un precio que no lo vale. Pero es loq ue hay si uno quiere actualizar ahora.

En pocas palabras, no veo que sea mala en el contexto presente. Eso si las 6950xt son superiores, pero se acabaran. Cuando salga la gama "media" de la serie 7000 sera otro cantar, es mejor esperar a entonces para comprar porque todo el mercado de graficas se movera. Pero a saber como y cuando saldran, y se pondran deacuerdo entre ellso para ajustar precios. Y es lo de siempre, uno muchas veces no puede contar con futuribles y ha de comprar en el momento que lo necesita
 
Última edición:
Yo jugue Cyberpunk nada mas salir a 2K con todas las opciones graficas a tope,incluido RT y DLSS con una 2080Ti FE y funcionaba perfectamente,ni un tiron o latencia.Con BF V lo mismo,que salieron casi a la par.
Despues de la 2080Ti,me pase a AMD con una TUF 6900XT y me sorprendio el rendimiento y el FSR,que no era tan cutre como decian los haters.Y sin un problema con los Catalyst,iban finos.Lo unico que habia que hacer era una instalacion limpia y funcionaba de 10.
Ahora he vuelto a Nvidia otra vez,no me caso con nadie,solo con quien me de lo que yo quiero.
Y si,me gusta el RT.

Puede que el recuerdo que tienes del buen funcionamiento de RT en Cyberpunk esté algo difuso.


Una RTX 3070 (iguala a la RTX 2080 Ti) en 1440p con RT y DLSS en modo calidad va a una media 20FPS. Sólo en modo ultra-rendimiento alcanza los 60FPS (y en 1080 también hay que ir al modo rendimiento). Pero claro la calidad visual cae.

Quizá es que para ti no era en aquel momento muy importante los FPS o la calidad gráfica y aún así tuvieras una buena experiencia. No lo sé.

Lo que está claro es que en ese juego, el RT consume mucho. Yo prefiero ir a 100FPS que a 50FPS, lo veo más fluido y me he acostumbrado a esa tasa de refresco.


Como dije, en otros se ha implementado mejor. Y además creo que en el futuro no hará falta hardware dedicado.
 
Por cierto, que en el disqus no paran de comentar esto, ¿pensáis que el rendimiento (yo con ella estoy contento y es lo que importa, puntualizo) de la 4070 es malo para ser de su gama? Es que dicen que debería ser una 4060, pero yo digo que ni de coña. En las tres generaciones anteriores tuve series 60 y puedo decir que la 2060 daba rendimiento de 1070ti y la 3060 de 2070 a secas. Entonces, ¿una 4070 por rendir como una 3080 (que encima la 3080 dio el mayor salto de potencia entre generaciones que se recuerda) consideráis que es mala?

Bueno, es que ha habido un cambio importante entre la generación 3000 y la 4000.

La RTX 3080 tenía en su GPU una memoria caché de nivel L2 de 5MB y la RTX 4070 tiene en ese mismo nivel 36MB. Aunque el bus de memoria de la RTX 3080 sea mayor (320vs192bit) al igual que el ancho de banda (760vs504,2GB/s), la diferencia de cantidad de memoria L2 se nota mucho.

Digamos que hay dos cosas a tener en cuenta para el rendimiento de una gráfica. La potencia del chip y la memoria. El chip de la RTX 3080 es más potente que el de la RTX 4070 por muy poca diferencia (29,77vs29,15TFLOPS) a pesar de tener más unidades shading, tensor, RT... Pero la RTX 4070 tiene 6 veces más memoria L2, y eso le da una rapidez al chip mucho mayor. De ahí que la RTX 4070 rinda mejor que la RTX 3080.

En cambio la RX 6900 XT siendo de la misma generación que la RTX 3080 la supera en 1440p. Y también supera a la RTX 4070, de hecho se queda a la altura de la RTX 4070 Ti en muchos casos (salvo en algunos que el FSR no está bien optimizado o por el uso de RT).

Esto se debe a que la RX 6900 XT tiene una configuración de memoria del chip diferente.

Todas estas gráficas tienen un cache L1 de 128KB. Mientras que la RX 6900 XT tiene un nivel más rápido L0 de 32KB que el resto no tiene. A su vez, aunque el nivel L2 es más bajo que las del resto (4MB VS 5/36/48MB) cuenta con un nivel adicional L3 de 128MB. En resumen esto hace que el chip más rápido sea el de la RX 6900 XT por una simple cuestión de memoria.


Ahora bien, lo que ocurre que su potencia no es tan alta, de hecho es la más baja con 23,04TFLOPS (siempre en FP32 que es la usada en juegos).

Esto se traduce en que en resolución 4K la velocidad del chip pierde importancia y se hace más presente la potencia. Por eso ahí se igual con la RTX 4070 a la que antes en 1440p superaba, e incluso se queda atrás según el caso. También hay que tener en cuenta variaciones de los propios juegos, porque DOOM que está optimizadísimo no necesita un chip tan potente y por la memoria más rápida de la RX 6900 XT saca ventaja sobre la RTX 4070.


Ahora bien. Los chips de la RTX 4070 y RTX 4070 Ti son ligeramente más lentos que el de la RX 6900 XT. Pero son más potentes, de hecho el de la RTX 4070 Ti es igual de potente que el de la RTX 3090 Ti. Esto hace que en 4K el rendimiento de la RTX 4070 Ti se iguale al de la RTX 3090 Ti, y puntualmente la RTX 4070 Ti sobresalga un poco por tener una memoria más rápida que esta. Pero la RX 6900 XT según el juego iguala o se queda muy cerca de la RTX 3090 Ti, por la gran diferencia de rapidez de su chip, pero en aquellos juegos menos optimizados y que la potencia es más relevante se queda atrás.

La cuestión, es que tanto en 1440p como en 4K, la velocidad del chip es más determinante que la potencia del mismo. La RTX 4070 Ti es una muy buena combinación de ambos.

La generación 6000 y 7000 de AMD también tiene algunas diferencias. En cuanto a la configuración es parecida. La RX 7900 XT tiene L0 64KB (el doble que antes), L1 256KB (también el doble), L2 6MB (poca diferencia) y L3 80MB (bastante menos que antes). Tiene el doble de memoria de la más rápida pero menos L3 que antes. La gran diferencia es que su chip es mucho más potente que la generación anterior (51,48VS23,04TFLOPS), de hecho supera por bastante al de la RTX 4070 Ti (40,09TFLOPS).

El chip de la RX 7900 XT en su conjunto viene a ser más o menos igual de rápido que el de la RTX 4070 Ti pero ligeramente más lento que el de la RX 6900 XT. En esta generación han aumentado más la potencia del chip y "mantenido" su velocidad.

Pero como dije antes, es la velocidad del chip lo más relevante, por eso en 4K la diferencia entre la RTX 4070 Ti y la RX 7900 XT no es tan grande a pesar de ser la primera menos potente que la segunda (excepto si hablamos de RT). Al igual que pasaba en el caso de RTX 4070 vs RX 6900 XT, que siendo la primera más potente se quedaba atrás en 1440p por la velocidad de la segunda, y por eso en 4K se igualaban.

 
Solo espero que para la prox gen de Nvidia no racanen la Vram. He visto lo que come por ejempl el nuevo Jedi, y madre mia.. 🤪
Aunque imagino que lo optimizaran algo mas, por que con una 4090 ya se veia feo a 1440p,de locos. 🤪
A este paso vamos a tener el pc 💻 en casa y la gpu en la azotea 😂
 
A mi me tiene mosca el tema de la VRAM.
 
A mi me tiene mosca el tema de la VRAM.

Todo el tema de la VRAM es una conspiración a día de hoy. Pero quien lanzara la piedra no dio matices. Según he oído fue AMD, por esos de que sus gráficas siempre han llevado más VRAM. Pero es posible que esa afirmación estuviera enmarcada en casos de APUs o IGPUs, donde la RAM es a su vez VRAM. Se supone que la próxima generación de APUs e IGPUs iban a ser revolucionarios (imagino que gracias a la última generación de consolas) donde estamos viendo que cuentan con 16Gb en las distintas plataformas. Entonces si digamos que el estándar mínimo pase a ser 8Gb de VRAM, y de RAM han sido esta última década de 16Gb, pues ahí tenemos la cuestión. 24Gb para una APU o IGPU.

No sé, muy conspiranóico todo.
 
Yo también creo que este revuelo fue intencionado y provocado por AMD, porque su única ventaja real destacable es su mayor cantidad de VRAM
 
Buenas tardes.
Tengo muy poco tiempo para pasarme por aqui...
Os lo voy a explicar de una manera cosntructiva,intentando no insultar a nadie.
El Software ha de adaptarse a el hardware.Jamas a el reves.
Yo veo juegos como Atomic Heart y no veo tanta diferencia con algunos "glotones de memoria V ram" que vemos hoy en dia.
Y he visto una RTX 4070 en 4K con su limitadisimo ancho de banda y doce gigas...y va como una RTX 3080.Y no,no se me derritieron los ojos.
Que no os calienten la cabeza.Si hacen ports como el culo,que lo compre su suegra o su hermana.
No me parece ni medio normal que juegos como "The last of us" tenga en uh mes mas parches que una cena de empresa de un barco pirata.
Dicho esto,LAS GRAFICAS HAN DE BAJAR DE PRECIO.
No puedes venderme una grafica inferior a un precio superior.
Una RTX 4070 "de los modelos bonitos" cuesta mas de 700 euros.730 era el precio en MSRP de una 3080 hace tres años y NO LA SUPERA en rendimiento.
Avisadme cuando bajen de 600 euros.Mientras tanto ESTAMOS SIENDO ROBADOS.
Robados por las empresas de SOFTWARE que pasan de optimizar sus juegos y emulan chips de la Playstation como en the Last of us en su manejo de texturas,en vez e hacer un port digno a PC.
Robados por la empresas de HARDWARE que nos piden pecios astronomicos,sin contraprestaciones en prestaciones.
Perdon si ofendi a alguien que tenga acciones de Nvidia,Sony AMD o su madre en bicicleta.Y perdon tambien por un post tan largo.
 
Puede que el recuerdo que tienes del buen funcionamiento de RT en Cyberpunk esté algo difuso.
No,para nada lo tengo difuso.
Me funcionaba perfectamente y sin ningun tiron,por mucho que te empeñes.
Es igual que decian que estaba lleno de bugs.El unico bug que vi yo,fue algun NPC aleatorio en alguna zona en forma de T.
Por lo demas,no tuve ningun bug.
 
No,para nada lo tengo difuso.
Me funcionaba perfectamente y sin ningun tiron,por mucho que te empeñes.
Es igual que decian que estaba lleno de bugs.El unico bug que vi yo,fue algun NPC aleatorio en alguna zona en forma de T.
Por lo demas,no tuve ningun bug.

No he hablado de bugs, si no de como en ese juego el rendimiento decae mucho al activar el RT. Y no me empeño en nada, simplemente es lo que veo en las pruebas.


Como dije, yo ya me he acostumbrado a jugar a alta frecuencia y pues 40 fps de media como se ve en el vídeo a 1440p con RT y DLSS en calidad, pues prefiero quitar el RT y jugar más fluido. Si a ti no te parece mal jugar así pues mejor que mejor. Pero eso no hace que el juego deje de chupar una barbaridad por el RT, o que sea cosa de lo mal optimizado que esté (que no es sinónimo de bugs).
 
Desde luego, respeto la opinion de todos, pero a veces pienso cuando dicen que no les interesa el RT, que no han jugado con el a full en juegos en los que se nota bastante. Que si 4 ratillos y brillo en los charcos, no se que habran vistoo. El Rt para mi mola y muchoo, pero bueno cada cual... 🤪
Estoy completamente de acuerdo contigo.
El RT está muy bien.
Lástima que lastra muchísimo el rendimiento.

Yo en Cyberpunk no lo tengo puesto.
Con todos los presets en Alto y el DLSS en Equilibrado consigo los 120fps a 1440p en la mayoría de entornos sin problema.

Pero en el The Ascent si que prefiero tener el RT activado aunque no me suba de 80fps, por ejemplo.

Con el que no puedo hacer nada es con el The Witcher 3.
Desde que sacaron la actualización Next Gen lo han roto a muchos niveles.
Ni con DLSS manteniendo la misma calidad, ni con DX11consigo los mismos resultados que tenía antes.

Llegué a jugar a 8K a 30fps rocosos sin problemas, mientras que ahora no puedo hacer nada en ninguna resolución sin que bailen los frames a lo tonto, con o sin RT, con o sin DLSS.

El RT es una tecnología muy guapa.
Aunque sigo opinando que la verdadera revolución de las RTX ha sido el DLSS.

Resumiendo, por lo general, en la mayoría de los juegos que tengo el RT no está, así que no lo uso.
Y dependiendo del juego prefiero tener calidad o frames según me interese, que es la gracia del PC.

Saludos.

PD:
Miraré de probar el Metro Exodus a ver.
En el Shadow of the Tomb Raider no le veo el que.
 
Buenas tardes.
Tengo muy poco tiempo para pasarme por aqui...
Os lo voy a explicar de una manera cosntructiva,intentando no insultar a nadie.
El Software ha de adaptarse a el hardware.Jamas a el reves.
Yo veo juegos como Atomic Heart y no veo tanta diferencia con algunos "glotones de memoria V ram" que vemos hoy en dia.
Y he visto una RTX 4070 en 4K con su limitadisimo ancho de banda y doce gigas...y va como una RTX 3080.Y no,no se me derritieron los ojos.
Que no os calienten la cabeza.Si hacen ports como el culo,que lo compre su suegra o su hermana.
No me parece ni medio normal que juegos como "The last of us" tenga en uh mes mas parches que una cena de empresa de un barco pirata.
Dicho esto,LAS GRAFICAS HAN DE BAJAR DE PRECIO.
No puedes venderme una grafica inferior a un precio superior.
Una RTX 4070 "de los modelos bonitos" cuesta mas de 700 euros.730 era el precio en MSRP de una 3080 hace tres años y NO LA SUPERA en rendimiento.
Avisadme cuando bajen de 600 euros.Mientras tanto ESTAMOS SIENDO ROBADOS.
Robados por las empresas de SOFTWARE que pasan de optimizar sus juegos y emulan chips de la Playstation como en the Last of us en su manejo de texturas,en vez e hacer un port digno a PC.
Robados por la empresas de HARDWARE que nos piden pecios astronomicos,sin contraprestaciones en prestaciones.
Perdon si ofendi a alguien que tenga acciones de Nvidia,Sony AMD o su madre en bicicleta.Y perdon tambien por un post tan largo.
Amén.
 
Arriba