Espero que lo leas entero porque te respondo a todo.
Si realmente piensas que una 4090 nace muerta por el simple hecho de que no pueda mover algunos juegos mal optimizados (todo sea dicho) a 4k con altas tasas de refresco cuando activas el Raytracing es que no eres consciente de la capacidad de cómputo que hace falta para mover Ray-tracing en tiempo real y el que esta desubicado de la realidad eres tu.
Para que te hagas una idea, te voy a dejar un video del Quake 2 (juego de 1997) en su versión Path tracing que implementaron la tecnología de trazados de rayos a nivel completo, no en espejos, reflejos, o 4 charquitos como tienen la inmensisima mayoría de juegos (incluido Cyberpunk) si no implementado a todos los niveles del juego.... mira como se arrastra la 4090 en el juego.
Me parece profundamente sesgado juzgar una grafica porque no de el rendimiento que esperas en una tecnología que faltan generaciones hasta si quiera plantear poder aplicarla a nivel general en los videojuegos modernos. A la 4090 hay que juzgarla como toda vida de dios por el rendimiento que da en rasterizado. Su desempeño en Ray-tracing, si quieres analizarlo, tienes que hacerlo siendo consciente de lo que implica a nivel computacional esa tecnología y en este sentido, la 4090 lo hace también espectacularmente bien.
En cuanto a lo de Steve Burke y la terminología de "tecnologías de apoyo" ¿Cuál es el problema? Nos estan dando una tecnología que sin reducir demasiado (o en algunos casos nada) calidad de imagen, le permite dar un impulso extra a la gráfica para poder mover estas tecnologías a buenos fps. Si te molesta la forma en que lo hacen pues no lo activas y ya esta. A mi me molesta el rgb en el PC y tengo la opción de desactivarlo y ahí se acaba el debate... No entiendo por qué tanto Hate hacia una tecnología que te da rendimiento extra. Lo que pasa con Steve Burke es que le patrocinaba EVGA y ahora que anuncio que no iba a renovar con las RTX 4000 esta ardido con NVIDIA y cualquier cosa aprovecha para lanzársela.
Es mas, el DLSS 3.0 refuerza mas la idea de la 4090 como grafica elitista porque NVIDIA restringe esa tecnología solo para las 4000 (al menos hasta que limpien el stock de 3000)
Luego hay otra cosa... el 4K 144hzs es un espejismo que se sostiene en el hecho de que hemos estado con una generación de videoconsolas (xbox one y PS4) especialmente malas en cuanto a potencia grafica y el PC ha estado a años luz en rendimiento incluso cuando salieron esas consolas. Ahora que las consolas en esta generación se han "entre comillas" igualado a potencia con el PC olvídate del 4k 144hzs en los juegos triple AAA potentes de esta generación.... por muy 4090 que sea. 4k 144 fps es una puñetera barbaridad... son casi 9 millones de pixeles que encima quieres moverlos a 144 imágenes por segundo.... Pensar que es un nuevo estándar para las graficas de gama alta es nuevamente estar desubicado y pensar que lo deberían hacer con Ray-tracing es estar doblemente desubicado. Por eso decía que la 4090 es bárbara... porque consigue el 4k 144fps en juegos realmente demandantes. Pero si pillas los juegos mas nuevos (diseñados para el hardware de las nuevas videoconsolas) y le sumas mala optimización... pues se cae, como es normal y natural pero sigue siendo una grafica increíble.
Ni sofismas ni falacias. Hay que saber analizar el contexto estando ubicado
A estas alturas del año ( y seguramente hasta enero/febrero del año que viene ) mi participación en las comunidades donde me muevo tiende a cero. Por fechas y ahora que entramos en fin de semana con desplazamiento en mi caso implica que este pueda ser mi último o penúltimo mensaje, a fin de cuentas no me va a quedar tiempo ni ganas.
Con el usuario anterior ya no voy a interactuar más por razones que deberían ser más que obvias, en tu caso veo ( en esta línea que escribo aún no lo he leído ) que te has tomado la molestia y el tiempo así que por el debido respeto que mereces procedo a leer y diseccionar si así parece oportuno. Vamos allá:
Si realmente piensas que una 4090 nace muerta por el simple hecho de que no pueda mover algunos juegos mal optimizados (todo sea dicho) a 4k con altas tasas de refresco cuando activas el Raytracing es que no eres consciente de la capacidad de cómputo que hace falta para mover Ray-tracing en tiempo real y el que esta desubicado de la realidad eres tu.
Matices importantes:
- Afirmo que la generación 4000 y 7000 nacen muertas.
- No me puedo parar a releerme, pero sí recuerdo haber afirmado que la tecnología de trazado de rayos nos la han colado en fase beta, y en efecto esto implica ser plenamente consciente de lo mucho que demanda y la incapacidad del hardware dedicado actual, circunstancia esta que afecta... a la generación que tenemos ahora en las manos.
- Tampoco estoy en desacuerdo que los juegos estén mal optimizados, lo que estoy diciendo es que esta circunstancia es irrelevante... esos juegos nos los están plantando igualmente. Por nombrar un ejemplo terriblemente famoso tenemos el Witcher 3 y su pésima optimización, los usuarios sufriendo para moverlo con lo mejor que había en el momento. Sí, ciertamente los desarrolladores tiene gran parte de culpa, no me extrañaría que hubiese contubernio entre fabricantes de hardware y demás... ahora bien ¿ en qué cambia esto la situación ? . Van a sacar nueva saga de Witcher con UnrealEngine5 , ¿ estás seguro que el primer título se jugará con una 4090TI sin problemas ?
Para que te hagas una idea, te voy a dejar un video del Quake 2 (juego de 1997) en su versión Path tracing que implementaron la tecnología de trazados de rayos a nivel completo, no en espejos, reflejos, o 4 charquitos como tienen la inmensisima mayoría de juegos (incluido Cyberpunk) si no implementado a todos los niveles del juego.... mira como se arrastra la 4090 en el juego.
Lo conozco, es un vídeo citado en no pocas ocasiones en las angloreseñas de hardware, no aporta nada a lo que afirmo.
Me parece profundamente sesgado juzgar una grafica porque no de el rendimiento que esperas en una tecnología que faltan generaciones hasta si quiera plantear poder aplicarla a nivel general en los videojuegos modernos. A la 4090 hay que juzgarla como toda vida de dios por el rendimiento que da en rasterizado. Su desempeño en Ray-tracing, si quieres analizarlo, tienes que hacerlo siendo consciente de lo que implica a nivel computacional esa tecnología y en este sentido, la 4090 lo hace también espectacularmente bien.
Aquí veo necesario incluír una aclaración y aunque no recuerdo como lo he formulado es evidente que algo no se ha entendido por tanto me toca pedír perdón por no explicarlo correctamente:
A título particular no defiendo el trazado de rayos que - insisto - nos han colado en fase beta con el objetivo de exprimír al consumidor a base de añadír mejoras poco a poco. Su futuro o potencial - según me han explicado algunos desarrolladores de juego en angloforoso - sí que me parece importantísimo, con verdadera capacidad de marcar un antes y un después... pero ahora mismo no.
En el ejemplo que pongo no estoy extrapolando mi opinión personal algo que sí supondría una manera limitada de abordar la cuestión, sino abstraernos ( todos los presentes ) de nuestras preferencias y ponernos en la situación de que se nos plante un cliente al que pagar la cantidad que le pidan no se suponga el menor problema.
Así, digamos que somos una tienda de informática de barrio, vendemos a sobreprecio, nuestro cliente imaginario paga por la caja/fuente/memorias/refrigeración/etc... más caras que consigamos, por el montaje, por dejárselo todo listo, acepta todos nuestros consejos... y a pesar de ello quiere el máximo de memoria que admita la placa, le da igual.
¿ Vamos a negar que todos los medios están vendiendo a bombo y platillo el trazado de rayos ? que se pueda denominar como algo inmaduro no lo destacan sin embargo, pero a nuestro cliente imaginario le ha llegado el gancho comercial ... y lo quiere... y nos va a decir:
- Bueno, con esto puedo jugar con todo a tope ¿no?
Y pregunto yo: ¿ qué se puede responder sin mentír ? , ¿ le ocultamos que hay juegos en los que tiene que usar tecnología-muleta (falsoframes) porque el flamante equipo por sí solo no puede ? , ¿ le decimos que no active el trazado de rayos que le han metido por los ojos ? , ¿ hablamos de lo mal que optimizan los juegos y a continuación le decimos juegos que cuesta mover ( no son ni 1, ni 2, ni 3... por mucho que nos empeñemos en mirar hacia otro lado y no buscar ) y a los que no podrá jugar sin ponerle ruedines a la bicicleta ( falsoframes otra vez )?
Ojo: no estoy defendiendo nada de esto, me parece injustificable como ex-programador que ha sido educado en la eficiencia para observar como las prácticas desde que cambié de rama sólo se han orientado al guarrerío con una montaña imposible de ignorar en el terreno de los juegos.
El hecho de que este tipo de prácticas y saltos a destiempo favorezcan tanto la industria hiede a contubernio, los perjudicados somos los que estamos en el final de la cadena.
Dicho esto... la situación y lo que he dicho sigue sin cambiar:
- La 4090 es la gráfica más potente del mercado y lo seguirá siendo toda esta generación salvo sorpresón que nadie se cree ( yo incluído )
- Existen juegos pésimamente optimizados, siguen saliendo juegos de este tipo... vienen más de este tipo. Aquí se incluyen títulos que han sido, son y serán muy populares.
- ¿ Puede la gráfica más potente actual mover lo más exigente sin "muletas" o "ruedines en la bici" ? no.
- Quien se compre el equipo más potente posible no le queda otra que aceptar que existen limitaciones: ciertos juegos, ciertas configuraciones.
En cuanto a lo de Steve Burke y la terminología de "tecnologías de apoyo" ¿Cuál es el problema? Nos estan dando una tecnología que sin reducir demasiado (o en algunos casos nada) calidad de imagen, le permite dar un impulso extra a la gráfica para poder mover estas tecnologías a buenos fps. Si te molesta la forma en que lo hacen pues no lo activas y ya esta.
A nivel particular ninguno, no quita que la definición "tecnología de apoyo" sea certera. Por ahora no he visto el DLSS 3.X en acción "en la vida real" más allá de lo que todos tenemos al alcance, sí he visto el resto y a mí ( particular ) no me convencen ni el DLSS 2.X ni el FSR 2.X visto con gráficas de todas la gamas AMD y Nvidia hasta las series 6000/3000, de hecho en juegos con movimiento muy constante me produce cierto mareo. Pero como tú indicas, lo desactivo y sin problema.
El problema surge de extrapolar opinión personal al conjunto de usuarios, por tanto no me queda otra que guiarme por una opinión en torno a estos en las que veo de todo menos homogeneidad, por tanto mi afirmación se limita a que no se puede establecer DLSS/FSR ( nótese que excluyo XESS, simplemente no está listo por ahora ) como integrante fijo del discurso, sus resultados distan mucho de constituír un axioma . Este punto es muy peligroso porque se está trabajando para plantar la idea de aceptar el DLSS/FSR como binomio ligado incluso a las gráficas más caras, y aquí es donde señalo el conflicto.
Por lo demás, mi opinión a nivel particular es que espero y deseo que FSR especialmente ( por la segmentación del DLSS 3.X ) se extienda a todas las gráficas, funcione mejor que nunca y que suponga una solución para la mayoría de usuarios, que se queden con sus gráficas y que la dichosa burbuja explote de una vez lo más violentamente posible.
A mi me molesta el rgb en el PC y tengo la opción de desactivarlo y ahí se acaba el debate... No entiendo por qué tanto Hate hacia una tecnología que te da rendimiento extra.
Es muy sencillo :
Si se trata de una opción que eres libre de activar o desactivar no hay problema, si nos vemos
obligados por dictadura de la industria a usarlo para jugar a una serie de juegos que atraen a no poca gente ... y peor aún... incluso con la gráfica más cara recién salida... sí existe un problema.
Si esto supusiese un conflicto de tradicionalistas del rasterizado que se niegan a aceptar una evidencia más que demostrada en la que DLSS/FSR/XESS ofrecen resultados idénticos alcanzando un consenso casi unánime salvo la secta de los tradiciorastericeros... podríamos hablar del absurdo que supone, mentalidad terraplanista, etc.... pero no es el caso, el resultado sigue sin ser 1:1 ... y si haber visto ni experimentado con DLSS 3.X en persona por ahora nada apunta a que esto se produzca ( fuera de burbujas claro está ) .
Lo que pasa con Steve Burke es que le patrocinaba EVGA y ahora que anuncio que no iba a renovar con las RTX 4000 esta ardido con NVIDIA y cualquier cosa aprovecha para lanzársela.
¿ Tienes pruebas irrefutables de lo que afirmas o es mero salseo de relleno ?
Es mas, el DLSS 3.0 refuerza mas la idea de la 4090 como grafica elitista porque NVIDIA restringe esa tecnología solo para las 4000 (al menos hasta que limpien el stock de 3000)
Que la 4090 es la gráfica más potente del mercado y seguramente se quede así en esta generación no lo discute nadie ni necesita refuerzo alguno... su posición se defiende con números y esta batalla está ganada.
Luego hay otra cosa... el 4K 144hzs es un espejismo que se sostiene en el hecho de que hemos estado con una generación de videoconsolas (xbox one y PS4) especialmente malas en cuanto a potencia grafica y el PC ha estado a años luz en rendimiento incluso cuando salieron esas consolas. Ahora que las consolas en esta generación se han "entre comillas" igualado a potencia con el PC olvídate del 4k 144hzs en los juegos triple AAA potentes de esta generación.... por muy 4090 que sea. 4k 144 fps es una puñetera barbaridad... son casi 9 millones de pixeles que encima quieres moverlos a 144 imágenes por segundo.... Pensar que es un nuevo estándar para las graficas de gama alta es nuevamente estar desubicado y pensar que lo deberían hacer con Ray-tracing es estar doblemente desubicado. Por eso decía que la 4090 es bárbara... porque consigue el 4k 144fps en juegos realmente demandantes. Pero si pillas los juegos mas nuevos (diseñados para el hardware de las nuevas videoconsolas) y le sumas mala optimización... pues se cae, como es normal y natural pero sigue siendo una grafica increíble.
Ni sofismas ni falacias. Hay que saber analizar el contexto estando ubicado
Curiosa línea final comenzando con una redundancia ( aconsejo acudír a un diccionario de sinónimos si no sabemos que es un sofisma ) y rematando con una acusación por desubicación cuando el acusador gira y reinterpreta mi línea crítica a conveniencia . Pero esto no sería más que un vulgar argumento ad hominen que no aporta nada así que paso a lo que importa:
- No he afirmado en ningún momento que el 4K/144hz sea un estándar. Decir lo contrario además de falso supone una falta de comprensión lectora.
- Quiero recordar que esta intervención generadora de otra asurda pérdida de tiempo en la red parte de una afirmación que estimé falsa como lo es afirmar que la capacidad de la actual generación de gráficas sobrepasa la demanda de lo existente. Y me reafirmo ( y lo has confirmado aunque sea sin quererlo ) que así es ( ¿ existen monitores 4K/144hz como algo común? sí, ¿ están fuera del alcance del usuario medio? desde el momento que están en el rango de algo tan común como un teléfono... desde luego no. De ahí a afirmar que son un estándar hay mucha distancia ) . Mi comentario no iba mucho más allá en realidad a pesar de la que se ha armado.
@Pedropc necesitamos una de limpieza por aqui
Gracias de antemano
Los que vais con aire de suficiencia no durais mucho por aqui.
O he entendido mal a quien señalas ( mis disculpas si no era yo el aludido ) o tienes una curiosa doble vara de medír.
Por mi parte invierto tiempo en armar un post y por no recargarlo incluyo sólo un ejemplo. Aparece alguien que con malas maneras acusa sin aportar nada. Me molesto en contestar a pesar del tono añadiendo dos ejemplos más ( y la mayoría sabemos que existen más ) que curiosamente ese usuario no se molesta en buscar. Sigue respondiendo con provocaciones y atascado en su primer mensaje ( sólo un juego ) a pesar de molestarme en responder...
Si en este caso el que tiene "aires" soy yo... pues no me queda más que ofrecer mis condolencias a quien tenga que soportarte .
Y con esto concluyo mis intervenciones respecto a este tema en el que no hay más que hablar realmente y todo lo que derive de aquí son rencillas personales que no harán bien a nadie y mucho menos al foro.
Aprovecho para despedirme ( en caso de que este sea mi último mensaje del año ) y desearos suerte con las nOfertas, aunque especialmente deseando que AMD cumpla el mes que viene y que Intel se levante con fuerza, o eso o nos hunden a todos.