• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Hilo RTX serie 4000.

Pues al final tenías razón. Jarrazo de agua fría de Nvidia. La RTX 4060 Ti rinde prácticamente como la RTX 3060 Ti. La verdad no me esperaba que fuera a rendir así. Pensaba que sería a la par de una RX 6800 y por debajo de la RX 6800 XT.

Saliendo la versión de 16Gb a 550€, a quien la estuviera esperando creo que le renta más una RX 6800 XT.

Por desgracia se veía venir que con un recorte tan bestia en cuanto a número de núcleos del procesador gráfico no se puede hacer magia. Sí, se mejoran los consumos de sus equivalentes prestacionales de la generación anterior, pero se fía todo al DLSS3. Lo que viene a ser una evolución que se cobra a precio de salto generacional.

Personalmente diría que las gamas sub-70Ti son resultado del dominio del mercado: Nvidia no necesita más que hacer refresh sin un aumento prestacional serio para mantener una posición dominante en el mercado. Y no necesitan bajar seriamente precios ni aumentar VRAM ni abrir sus tecnologías, que nadie se haga ilusiones.

Ahora, que de aquí a unos años van a ser una maravilla en el mercado de segunda mano: no mantendrán leyenda y se depreciarán más rápido que las 3000. Buenos consumos, mala fama y sin minería a sus espaldas: no hay mal que por bien no venga.
 
Por desgracia se veía venir que con un recorte tan bestia en cuanto a número de núcleos del procesador gráfico no se puede hacer magia. Sí, se mejoran los consumos de sus equivalentes prestacionales de la generación anterior, pero se fía todo al DLSS3. Lo que viene a ser una evolución que se cobra a precio de salto generacional.

Personalmente diría que las gamas sub-70Ti son resultado del dominio del mercado: Nvidia no necesita más que hacer refresh sin un aumento prestacional serio para mantener una posición dominante en el mercado. Y no necesitan bajar seriamente precios ni aumentar VRAM ni abrir sus tecnologías, que nadie se haga ilusiones.

Ahora, que de aquí a unos años van a ser una maravilla en el mercado de segunda mano: no mantendrán leyenda y se depreciarán más rápido que las 3000. Buenos consumos, mala fama y sin minería a sus espaldas: no hay mal que por bien no venga.

Parece una respuesta a lo que mucha gente le ha dado tanto valor estos últimos años. El RT y el DLSS. El RT ahora es algo que AMD podrá igualar con la serie 7000. Y al final del día poca gente valora el RT como un factor importante pues ni en todos los juegos se implementa de forma que digas GUAU y algunos ni lo tienen. Pero sobre todo es el DLSS lo que más ha pesado (que otra vez, no todos lo tienen).

La cuestión es que las consolas marcan mucho el panorama a día de hoy. Y en las dos consolas actuales el hardware es AMD.

Yo le veo sentido que los juegos venideros implementen más el FSR que el DLSS por el mero hecho de poderse utilizar en las consolas y los juegos que estas tienen. Obviamente Nvidia pesa mucho en la industria, pero Sony y Microsoft pesan más a día de hoy.

Por otro lado veo lógico que Nvidia haga que todo dependa del DLSS pues al ser menos relevante el hardware pueden sacar más beneficio. Pero claro, el problema para los consumidores es que no es un estándar que esté presente en todos los juegos y esa es la gran pega. En los que lo tenga bueno, pones el DLSS en 1440p en calidad y puedes tener los 80-100fps. Pero en un juego que no lo tenga el bajón puede dar un susto y tratándose de una gráfica de última generación que en "raster" (potencia bruta) no tenga diferencias prácticamente con la serie anterior da que pensar.
 
Parece una respuesta a lo que mucha gente le ha dado tanto valor estos últimos años. El RT y el DLSS. El RT ahora es algo que AMD podrá igualar con la serie 7000. Y al final del día poca gente valora el RT como un factor importante pues ni en todos los juegos se implementa de forma que digas GUAU y algunos ni lo tienen. Pero sobre todo es el DLSS lo que más ha pesado (que otra vez, no todos lo tienen).

La cuestión es que las consolas marcan mucho el panorama a día de hoy. Y en las dos consolas actuales el hardware es AMD.

Yo le veo sentido que los juegos venideros implementen más el FSR que el DLSS por el mero hecho de poderse utilizar en las consolas y los juegos que estas tienen. Obviamente Nvidia pesa mucho en la industria, pero Sony y Microsoft pesan más a día de hoy.

Por otro lado veo lógico que Nvidia haga que todo dependa del DLSS pues al ser menos relevante el hardware pueden sacar más beneficio. Pero claro, el problema para los consumidores es que no es un estándar que esté presente en todos los juegos y esa es la gran pega. En los que lo tenga bueno, pones el DLSS en 1440p en calidad y puedes tener los 80-100fps. Pero en un juego que no lo tenga el bajón puede dar un susto y tratándose de una gráfica de última generación que en "raster" (potencia bruta) no tenga diferencias prácticamente con la serie anterior da que pensar.
Es importante distinguir entre el dlss y el dlss 3. El dlss es algo que todo el mundo lo ve como algo importante, igual que el FSR. El dlss3, en cambio, tiene la misma importancia que el RT. Humo............. y marketing.
 
Es importante distinguir entre el dlss y el dlss 3. El dlss es algo que todo el mundo lo ve como algo importante, igual que el FSR. El dlss3, en cambio, tiene la misma importancia que el RT. Humo............. y marketing.
Eso que es humo.. han salido tests de mucha gente usándolo y viendo que funciona de maravilla.. yo mismo puedo dar fe..
 
Eso que es humo.. han salido tests de mucha gente usándolo y viendo que funciona de maravilla.. yo mismo puedo dar fe..
Mucha gente, es un 70% con una 40 series, o 2000 personas? es importante ponerlo en perspectiva. Y espera que de momento, la serie 40 todavia no ocupa mucho mercado. Veremos a ver cuando tengan 2 años en el mercado, a ver que porcentaje usa el dlss 3.
 
Es importante distinguir entre el dlss y el dlss 3. El dlss es algo que todo el mundo lo ve como algo importante, igual que el FSR. El dlss3, en cambio, tiene la misma importancia que el RT. Humo............. y marketing.
Efectivamente, lo importante como dije es, si no se asegura DLSS3 en todos los juegos el rendimiento bruto cae en picado.
 
Efectivamente, lo importante como dije es, si no se asegura DLSS3 en todos los juegos el rendimiento bruto cae en picado.
Esa no es la cuestion, mi comentario no va por ahí. La cuestion es que dlss 3, tiene un contra casi tan grande como el RT. El aumento de latencia y la variedad en la implementacion.
Fuera de titulos offline, super pesados y llevados a resoluciones y ajustes estupidos, o juegos mal optimizados, nadie lo va a usar. El grueso de los jugadores compran GPUs de hasta 500€, y juega titulos ligeros. Por un lado, esos juegos son faciles de correr, por otro lado, nadie va a activar dlss 3 para correr a 300fps falsos que aumentan la latencia, en lugar de 150 reales. Sin mencionar que todos los metodos de super sampling necesitan 1440p para ser meramente aceptable, y 4k quality para que la calidad visual no se vea comprometida.

Si empiezas a hacer ratios, de cuanta gente juega titulos pesados, cuantos tienen un monitor 4k, cuantos tienen una GPU que puede correr 4k con RT, y un largo etc de condicionantes, te das cuenta de que el nº actual es diminuto no, lo siguiente.......... e llegamos finalmente a la conclusion de que es, !HUMO!
 
Última edición:
El problema ya no es el DLSS3 en sí. Supongamos un juego suficientemente mal optimizado para requerirlo sin afectar a la jugabilidad del mismo. Aún entonces se da el condicionante de la calidad gráfica, y es que por un lado un producto que se vende a 400$ no puede ofrecer una mejora nativa de un 15% y anunciar un 70% mediante el uso de perfiles de DLSS3 absurdos, además de que los frames interpolados (porque son eso básicamente) dependen de la calidad base de la imagen fuente, con lo que en productos constreñidos por VRAM a 1080p tomarán imágenes como mucho de 720p, y la pérdida de calidad es bastante más notable que cuando se activa a 1440 y toma imágenes 1080p como base.

Repito: nos venden una evolución a precio de mejora disruptiva. ¿Resultado?

4060Ti 3060Ti
4352 4864 núcleos

4060 3060
3072 3584 núcleos

Aproximadamente eso nos da que cada núcleo serie 30 equivale a 0.768 núcleos serie 40 (bajo rating de potencia de TPU).
Por tanto, 4864*0.768=3735,552 -> 4352/3735,552=1,165021929824561
16% más de núcleos, ronda 10% más de rendimiento

Análogamente, 3584*0.768=2752,512 -> 3072/2752,512=1,116071428571429
11% más de núcleos, rondará 6% más de rendimiento

Si se les sigue comprando, suma y sigue
 
Sin mencionar que todos los metodos de super sampling necesitan 1440p para ser meramente aceptable, y 4k quality para que la calidad visual no se vea comprometida.

Si empiezas a hacer ratios, de cuanta gente juega titulos pesados, cuantos tienen un monitor 4k, cuantos tienen una GPU que puede correr 4k con RT, y un largo etc de condicionantes, te das cuenta de que el nº actual es diminuto no, lo siguiente.......... e llegamos finalmente a la conclusion de que es, !HUMO!
Es que el dlss (sea el número que sea) como método para ganar Fps en resoluciones 1080p no tiene sentido en una grafica que recien te vas a comprar como novedad que acaba de llegar al mercado.
 
Mucha gente, es un 70% con una 40 series, o 2000 personas? es importante ponerlo en perspectiva. Y espera que de momento, la serie 40 todavia no ocupa mucho mercado. Veremos a ver cuando tengan 2 años en el mercado, a ver que porcentaje usa el dlss 3.
No hablamos de cuanta gente en total. El compañero habla de que DLSS 3.0 es humo, y los números indican que va bien.. otra cosa es que lo use poca gente.

Es como decir que la RV es humo, no.. es minoritaria pero funciona perfectamente
 
Para mi el Frame generatión en gráficas de gama baja es humo. ¿Alguien va a comprarse una 4060 para jugar a 2k ultra con Dlss en calidad y Frame generatión activado con sus 8 Gb de Vram? ¿En serio?
 
Para mi el Frame generatión en gráficas de gama baja es humo. ¿Alguien va a comprarse una 4060 para jugar a 2k ultra con Dlss en calidad y Frame generatión activado con sus 8 Gb de Vram? ¿En serio?
Claramente hablo de 4K en mi caso..
 
Ya, a ti te va bien y si tienes una gráfica medianamente potente no te digo que no vaya a ser o sea útil, pero no hablamos de un caso en particular y la gente que compra gráficas mayoritariamente no compran ni de lejos tarjetas de 700 euros o más
 
Ya, a ti te va bien y si tienes una gráfica medianamente potente no te digo que no vaya a ser o sea útil, pero no hablamos de un caso en particular y la gente que compra gráficas mayoritariamente no compran ni de lejos tarjetas de 700 euros o más
Bueno, hay que verlo como una tecnología que es un paso más allá del 2.0, y como tal, no se puede decir que es un vende humos..

Depende el caso será más o menos útil, pero es un avance más..
 
La verdad estoy muy decepcionado con la nueva series de Nvidia y Amd.Tengo una Rx 6600 y quería cambiar a NVIDIA.Creo que tiraré por una Rx 6700xt que están muy bien de precio.
 
Aprovecha mientras aún quedan, alguna se ha visto por 350e, y en pcc / coolmod tienen las sapphire pulse por 360e. Gran precio por gráficas de 12gb vram

El dlss 3 a mi me viene de perlas en el forza horizon y el need for speed para jugarlos a 4k en la tele con la 4070ti.
Ojala hubieran mas titulos que lo soportasen
 
Última edición:
Aprovecha mientras aún quedan, alguna se ha visto por 350e, y en pcc / coolmod tienen las sapphire pulse por 360e. Gran precio por gráficas de 12gb vram

El dlss 3 a mi me viene de perlas en el forza horizon y el need for speed para jugarlos a 4k en la tele con la 4070ti.
Ojala hubieran mas titulos que lo soportasen
Espero no equivocarme.Esta tarde la probaré a ver qué tal
 
Buenas, queria preguntar si este cable de las fotos es el nuevo 12VHPWR que viene con la fuente (una MSI PCIE5) o el de Nvidia que viene con la grafica. Parece una duda tonta, pero pedí montar el pc a Pccomponentes y no se si han usado el de la fuente (que se supone que es mejor) o el de Nvidia.

Gracias!
 
El de nvidia te pone un letrerito chikitin con si nombre en la parte de encima del conector. Ademas el de nvidia no es un cable directo fuente - grafica, es un adaptador intermedio conocido como "el pulpo". Ahi no se ve que sea un "ladron" de 2 o 3 cables de la fuente, porque el adaptador de nvidia es cortito y se veria la conexion antes de ocultarse debajo de la rejilla de separacion de la caja

Se comprueba facilmente, cable nvidia = adaptador que enchufa a otros cables a mitad de recorrido de al fuente. Cable especifico de fuente o comprado aparte, directo desde fuente a grafica sin enchufes intermedios
 
El de nvidia te pone un letrerito chikitin con si nombre en la parte de encima del conector. Ademas el de nvidia no es un cable directo fuente - grafica, es un adaptador intermedio conocido como "el pulpo". Ahi no se ve que sea un "ladron" de 2 o 3 cables de la fuente, porque el adaptador de nvidia es cortito y se veria la conexion antes de ocultarse debajo de la rejilla de separacion de la caja

Se comprueba facilmente, cable nvidia = adaptador que enchufa a otros cables a mitad de recorrido de al fuente. Cable especifico de fuente o comprado aparte, directo desde fuente a grafica sin enchufes intermedios
Existen cables directos, eso si, para fuentes muy muy nuevas y de gama alta. Supongo que se refiere a eso..
 
Arriba