• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Hilo RTX serie 4000.

parece que sí, es similar a la 3090, que curioso que el dlss 3 no esté disponible para una tarjeta más potente como es la 3090ti hmmm

que no haya FE me haría descartarla si estuviera buscando una tarjeta en ese rango de precios
El tema del DLSS3 tiene sentido el que no este en la serie 3000 en principio. El problema es por el tamaño de la cache. En las 4000 es MUCHISISISISIMO mayor ( no hay ni comparacion). Y el problema es que el DLSS 3 al genrar frames de mas ocupara mucha mas memoria cache.

Por eso se vio que cuando habilitaron DLSS 3 en la serie 3000 rendian de LUJO...durante unos segundos hasta que la cache se saturaba y el rendimiento se iba a la mierda. Entonces una vez liberada la cache volivia ese rendimiento super bestia.

Vamos que no es en principio un simple hecho de recortar algo por software por que si. Aplicarlo de forma correcta a las 3000 es mas complicado de lo que parece.
 
El tema del DLSS3 tiene sentido el que no este en la serie 3000 en principio. El problema es por el tamaño de la cache. En las 4000 es MUCHISISISISIMO mayor ( no hay ni comparacion). Y el problema es que el DLSS 3 al genrar frames de mas ocupara mucha mas memoria cache.

Por eso se vio que cuando habilitaron DLSS 3 en la serie 3000 rendian de LUJO...durante unos segundos hasta que la cache se saturaba y el rendimiento se iba a la mierda. Entonces una vez liberada la cache volivia ese rendimiento super bestia.

Vamos que no es en principio un simple hecho de recortar algo por software por que si. Aplicarlo de forma correcta a las 3000 es mas complicado de lo que parece.

la fuente de todas esas pruebas la tienes? porque aunque si es cierto que la cache es 10 veces mayor, dudo mucho que sea el motivo por el cual no se implanta.
 
la prueba es con una rtx 2070 no una 3000. Y tampoco comenta nada de que este completamente saturada, simplemente que hay inestabilidades que obviamente puede ser porque el soft no esta adaptado a esa grafica. Ya que lo hace por bypass

los cores de ia estan, iran mas lentos pero estan. Es muy diferente a que no se pueda ejecutar ese soft a que vaya algo mas lento.
 
El tema del DLSS3 tiene sentido el que no este en la serie 3000 en principio. El problema es por el tamaño de la cache. En las 4000 es MUCHISISISISIMO mayor ( no hay ni comparacion). Y el problema es que el DLSS 3 al genrar frames de mas ocupara mucha mas memoria cache.

Por eso se vio que cuando habilitaron DLSS 3 en la serie 3000 rendian de LUJO...durante unos segundos hasta que la cache se saturaba y el rendimiento se iba a la mierda. Entonces una vez liberada la cache volivia ese rendimiento super bestia.

Vamos que no es en principio un simple hecho de recortar algo por software por que si. Aplicarlo de forma correcta a las 3000 es mas complicado de lo que parece.
incluso tomando como referencia la 3090ti?
 
incluso tomando como referencia la 3090ti?
La cache de la 3090 ti tambien es bajisima respecto a las 4000.
la prueba es con una rtx 2070 no una 3000. Y tampoco comenta nada de que este completamente saturada, simplemente que hay inestabilidades que obviamente puede ser porque el soft no esta adaptado a esa grafica. Ya que lo hace por bypass

los cores de ia estan, iran mas lentos pero estan. Es muy diferente a que no se pueda ejecutar ese soft a que vaya algo mas lento.
Si perdon, dije 3000 por que se me fue la pinza.
 
Por cierto acabo de ver un video corto ( reel ) de un usuario ( seguramente youtuber ) comparando el red dead redemption 2 con una 3080ti.. y rinden prácticamente igual, incluso con dlss.

Eso si, con 100w menos y 15° menos de temperatura.

Supongo que la gran baza, como ya sabemos, será el dlss3 donde despuntará un poco.
 
Pues a mi que me llamen raro, pero el DLSS 3 tal como funciona es un apaño de la cutrez aquella de cuando las TV LCD se ponían de moda y se vendían en plan "1000hz".

Vamos que la TV interpolaba frames a cascoporro para dar la sensación de fluidez. Claro eso generaba artefactos de imagen tremendos pero es la misma cutrez. Ósea que vomita mas frames por que se los inventa ( por que patatas) pero son tan reales como un pony unicornio espacial gigante en miniatura xD.

Eso si, de que te da más fps te los da.

No se, veia chicha de más nivel con el DLSS 2.3 sinceramente :D
 
para mi un decepcion he visto reweiw en esta paginas y esta a la altura de una 3080 ti y con dlss3 practicamente iguales , no decian que superaba a una 3090 ti , si fuera una amd recibiria palos hasta el final de la gama , y no soy fanboy de ninguna marca
 
parece que rinde a nivel de vatios como una 3070ti
 
Ya avise que la RTX 3090ti estaba demasiado cerca de la RTX 4080 para que la sobrepasara la RTX 4070 ti.
Es como una RTX 3080ti en rendimiento,lo cual no es malo.
Cuesta lo que una RTX 3090ti de hace dos meses,cuando las dos estan limitadas por procesador.Lo cual es malisimo si estan a el mismo precio.
En fin,que al final hicieron barata mi RTX 4080 Mc Arra edition por 1299.
Y si piensas en jugar te da igual el consumo si un ratico estas jugando.
Consumo el de los jefes de nvidia poniendo estos precios.Desde que en lña maquina expendedora pusiero choko tripis,estan que no dan una.
 
Pues a mi que me llamen raro, pero el DLSS 3 tal como funciona es un apaño de la cutrez aquella de cuando las TV LCD se ponían de moda y se vendían en plan "1000hz".

Vamos que la TV interpolaba frames a cascoporro para dar la sensación de fluidez. Claro eso generaba artefactos de imagen tremendos pero es la misma cutrez. Ósea que vomita mas frames por que se los inventa ( por que patatas) pero son tan reales como un pony unicornio espacial gigante en miniatura xD.

Eso si, de que te da más fps te los da.

No se, veia chicha de más nivel con el DLSS 2.3 sinceramente :D

todo dependera de como implanten el software en el juego... hay juegos con dlss2 que vomitas al verlos y otros que no. El software es asi, hay que currarselo o bien dejarlo madurar

personalmente no uso dlss, no me gusta la idea de depender aun mas de software para ir fluido, mas aun porque si un juego no esta bien optimizado, es casi 99,9% seguro que el dlss este igual. Asi que en cierta manera pienso igual que tu, pero vaya estos bichos no necesitan dlss salvo que metamos el dichoso rtx en juego, algo que sinceramente con unos buenos filtros de reshade se puede conseguir acercar un pelin
 
todo dependera de como implanten el software en el juego... hay juegos con dlss2 que vomitas al verlos y otros que no. El software es asi, hay que currarselo o bien dejarlo madurar

personalmente no uso dlss, no me gusta la idea de depender aun mas de software para ir fluido, mas aun porque si un juego no esta bien optimizado, es casi 99,9% seguro que el dlss este igual. Asi que en cierta manera pienso igual que tu, pero vaya estos bichos no necesitan dlss salvo que metamos el dichoso rtx en juego, algo que sinceramente con unos buenos filtros de reshade se puede conseguir acercar un pelin
Si, eso es cierto. También pasa con el FSR. Normalmente notas que el FSR no es igual de bueno que el DLSS cuando pones ambos para comprar. Pero en algún juego que he jugado que tenia solo FSR ( y ha sido hace no mucho que lo jugué pero ahora no logro recordar cual jajaja) el FSR cumplió de maravilla. No tuve queja alguna xD. No se si los devs harian algo con el FSR en concreto pero como dices hay juegos donde va de lujo y otros donde no.

No se como ira la implementación de ambas tecnologías, la venden siempre como que "el dev la pone y ya esta" xD
 
Si, eso es cierto. También pasa con el FSR. Normalmente notas que el FSR no es igual de bueno que el DLSS cuando pones ambos para comprar. Pero en algún juego que he jugado que tenia solo FSR ( y ha sido hace no mucho que lo jugué pero ahora no logro recordar cual jajaja) el FSR cumplió de maravilla. No tuve queja alguna xD. No se si los devs harian algo con el FSR en concreto pero como dices hay juegos donde va de lujo y otros donde no.

No se como ira la implementación de ambas tecnologías, la venden siempre como que "el dev la pone y ya esta" xD

yo lo he visto en un juego al que le doy mucho que aun es early access, se llama scum. Al principio el dlss te pegaba unos borrones guapos guapos, pero los devs lo han ido mejorando mucho, son un equipo super pequeño pero que hacen las cosas super bien y con muchas ganas.

Para que veas lo que supone un soft bien depurado, en este juego en la version 0.4 con una 3090 no conseguia ir a mas de 80 fps. Ahora en la version 0.8 saco 120 practicamente como una roca. sin dlss
 
yo lo he visto en un juego al que le doy mucho que aun es early access, se llama scum. Al principio el dlss te pegaba unos borrones guapos guapos, pero los devs lo han ido mejorando mucho, son un equipo super pequeño pero que hacen las cosas super bien y con muchas ganas.

Para que veas lo que supone un soft bien depurado, en este juego en la version 0.4 con una 3090 no conseguia ir a mas de 80 fps. Ahora en la version 0.8 saco 120 practicamente como una roca. sin dlss
Tu mismo sin darte cuenta has expuesto el problema.
Con el hardware actuales videojuegos se deberian ver mejor incluso con graficas de la gama de entrada.
No voy a menospreciar la actual generaciond e videoconsolas de actual generacion diciendo que son "putas apus de mierda basadas en arquitectura x86" pero es lo que son.
Si el hardware no es probolema,el software lo es.
¿Una RTX 3080 ti y te pega tirones el DLSS?es mas...¿Una rtax 3080ti y necesitas DLSS?
Volviendo a el tema de el post.las RTX 4070ti a este precio son un timo.No lsa compreis.
A dia de hoy hay RX7900 XTX por apenas 130 euros mas.y la RTX 7900 xtx es una tarjeta grafica orientada a 4k y que juega con la RTX 4080 y 4090.
La RTX 4070ti es una tarjeta grafica que juega en otra liga.Y a dia de hoy veo que estan desapareciendo de las estanterias.
O hay otro boom de mineria o demsiada gente con gamas de cambiar tras dos años y no saben que hacer con su dinero....
 
Eso, hablando desde mi experiencia, son como dices "cuentos de vieja". Yo he tenido dos RX6900XT y no he tenido ningun problema de drivers ni de temperaturas. Si que es verdad que las RX7900 tienen algun problema de temperatura pero es completamente puntual, lo mismo que lo del conector de las Nvidia 4xxx.

Un saludo.
Pues muchas gracias por la respuesta, siempre tenía la intención de pillarme una de AMD pero siempre me echaba para atrás " los cuentos de vieja" y terminaba pilándome una Nvidia.

Tendré que dar una vuelta a la próxima que me pille.
 
Tu mismo sin darte cuenta has expuesto el problema.
Con el hardware actuales videojuegos se deberian ver mejor incluso con graficas de la gama de entrada.
No voy a menospreciar la actual generaciond e videoconsolas de actual generacion diciendo que son "putas apus de mierda basadas en arquitectura x86" pero es lo que son.
Si el hardware no es probolema,el software lo es.
¿Una RTX 3080 ti y te pega tirones el DLSS?es mas...¿Una rtax 3080ti y necesitas DLSS?
Volviendo a el tema de el post.las RTX 4070ti a este precio son un timo.No lsa compreis.
A dia de hoy hay RX7900 XTX por apenas 130 euros mas.y la RTX 7900 xtx es una tarjeta grafica orientada a 4k y que juega con la RTX 4080 y 4090.
La RTX 4070ti es una tarjeta grafica que juega en otra liga.Y a dia de hoy veo que estan desapareciendo de las estanterias.
O hay otro boom de mineria o demsiada gente con gamas de cambiar tras dos años y no saben que hacer con su dinero....

poco me has leido en estos años compañero... yo siempre he dicho que el problema actual de los juegos es el soft mal hecho. Un soft depurado, bien trabajado da sus frutos. Sin necesidad de tener un monstruo del averno como una 4090 para mover un juego xD los conspiranoicos podrian llegar a pensar que incluso es una estrategia para acentuar mas el consumismo

de ahi, que post atras dijese que la unica tecnologia de nvidia que me parece una genialidad es el g sync, conexion entre hard y hard, no se mete el software por medio sin joder el asunto. Pero como siempre pasa ya se ha desvirtuado dejandolo por soft... pocos monitores decentes encuentro con modulos g sync

sobre lo de las estanterias, el stock se lleva manipulando desde hace ya un tiempo. La escusa perfecta fue la mineria, covid etc. ahora cual es? la guerra de ucrania? xD
 
poco me has leido en estos años compañero... yo siempre he dicho que el problema actual de los juegos es el soft mal hecho. Un soft depurado, bien trabajado da sus frutos. Sin necesidad de tener un monstruo del averno como una 4090 para mover un juego xD los conspiranoicos podrian llegar a pensar que incluso es una estrategia para acentuar mas el consumismo

de ahi, que post atras dijese que la unica tecnologia de nvidia que me parece una genialidad es el g sync, conexion entre hard y hard, no se mete el software por medio sin joder el asunto. Pero como siempre pasa ya se ha desvirtuado dejandolo por soft... pocos monitores decentes encuentro con modulos g sync

sobre lo de las estanterias, el stock se lleva manipulando desde hace ya un tiempo. La escusa perfecta fue la mineria, covid etc. ahora cual es? la guerra de ucrania? xD
Te entiendo.Yo si pille nvidia fue por estar mas familiarizado con los drivers y que se que es una solucion sin problemas.
Tambien toque AMD pero siempre de refilon y para dejarlas de casa.
AMD es un riesgo latente.En gama alta se esmeran y mucho.Pero luego te encuentras con que x juego te da x problema y hasta pasados tres meses no lo solucionan...y eso es asi.
Y mira que se me cansa la boca de aconsejar la RX 6600 y 6700 para montajes nuevos...en la gama de entrada son la leche.
Y lo de el Gsync compatible es simplemente Dispaly port adaptativo,como Freesync.Pero si le pones una pegatina,pos mola mas (marketing).
Y si.O vinieron muy muy pocas y las metieron en PC nuevos,o la gente esta loca por los huesos de las RTX 4070ti.Cosa inexplicable hoyga.
 
No se si alguno ha sufrido esto:

Era un BUG/fallo que se daba en la serie 11º de Intel y con placas z590.
A mi me toco ya que llevo un 11700k y ROG z590F.
Actualice la BIOS de la placa a la ultima version (1701) y seguia igual, la RTX4080 se quedaba en PCI 3.0 en vez de 4.0.
Hoy con los drivers de NVIDIA nuevos, los 528, han solucionado este fallo y ahora va todo como debe ir.
Saludos y que se porten bien los Reyes.
 
Arriba