Opino como la mayoría, si mi objetivo son los 144 fps y el RT merma para no poder llegar a esa cifra, apagado se queda (y se quedará porque con mi gráfica actual no tiene sentido).
Y con respecto a esta imagen que ha compartido
@Juez ya no es que no tenga RT activado (izquierda), si no que además parece que las sombras están al mínimo (¿?).
Es que en la escena no se aprecia ni una sola sombra, ni si quiera debajo del sombrero del npc. Cuando en las imágenes donde lo comparábamos antes si habían.
Igual soy muy paranoico, pero no me deja de chirriar xD
Tu ten en cuenta una cosa. A lo largo de los años hemos pasado de renderizar unas cosas de una forma y otras de otra. Antes había juegos donde con hardware mucho menos potente aplicábamos self-shadows cosa que no tiene la imagen esa SIN RT. Pero es que antes no tenias que aplicar eso a decenas de cientos de objetos en cada escena, más tener en cuenta todo el resto de enormidad grafica que puede tener un juego actual.
A mi sorprendio mucho una cosa...
1-¿Como era posible ver las fisicas de half life 2 cuando solo existian en esa epoca CPUs de 1 solo nucleo. Y la grafica con mas memoria eran 256 MB. Mientras que hoy e ndia en general los juegos no tienen esas fisicas de serie ni forzando.
2-¿Como es posible que juegos como DOOM 3 o Cronicas de Riddick o Fear, tuviesen esa iluminación, y sobre todo ESAS SOMBRAS moviéndose todo con CPUS de 1 nucleo y graficas de 256 megas de ram?.
3-¿Como puede ser que antes tuviésemos incluso scripts de comportamiento para NPC, muchos mas avanzados que ahora y con lo mismo que antes, osea hardware "de mierda" en comparación con el actual y ahora solo vemos muñecos que rozan el retraso mental a todos los niveles?.
La respuesta es compleja pero en parte unas cosas son por simple y pura vagancia de las desarrolladoras. Otra parte se responde (la de las SOMBRAS) en que no tenían la calidad que nos creíamos que tenían. Un dia de sombras chulas como en doom 3 pasamos a sombras hechas "con puntitos" que se veían guarrisimas y poco precisas lo cual a mi sin tener ni idea me parecía un bajón tremendo (GTA4).
Y que pasó con la "IA" tan chula que tenia Halo 1 y 2 o mejor aun F.E.A.R. donde los malditos NPC reaccionaban de lujo en combate en los fregaos que montábamos. Mientras que ahora ves a los NPC y solo son pollos sin cabeza ni un control mínimo sobre nada de lo que hacen.. Pues esta parte es ya VAGANCIA PURA Y DURA y no querer complicarse la vida para NADA.
Eso si, tambien hay que entender que aun que hayan pasado un monton de generaciones de hardware y hemos logrado ir optimizando el software de mil maneras. Al final estamos usando una tecnologia que viene arrastrada desde los años 70. Usamos lenguajes de programación que aun que también se han ido adaptando y mejorando siguen viniendo con una base enorme creada en los años 70/80.
Y no hay que olvidar que aun que tenemos maquinas tremendas en casa ya, como normalidad sistemas con 16 hilos de ejecución y tal que siguen siendo lo mismo que cuando teníamos 1 solo núcleo. Es decir. Se lee el código y todo lo que ocurre de forma secuencial. Luego ya lo mareamos mediante bucles para controlar el control de flujo de los programas (programas en general, juegos, SOs, y lo que queramos). Es decir que aun que todo ha cambiado "mucho" no ha cambiado nada al mismo tiempo.
Que se ha tenido que renegar en unos casos de ciertas cosas, para poder mejorar otras eso es seguro. Por que los caminos de los que han ido creando al tecnología se han ido desviando por otras cosas que igual pensaron que les parecía mejor (ya fuese económicamente o en computo general).
Yo tengo una "pelea" con los video juegos nuevos y viejos en el sentido de que no logro entender como es posible que aun hoy en dia nadie logre superar juegos que tienen 20 o incluso cerca de 30 años. ¿En que estamos gastando la potencia y la tecnología actual?. En pegotes de cartón piedra cada vez mas bonitos. De ahi mi pasion sobre todo por los indie y cuanto mas especiales mejor (Dwarf Fortress, Caves of Qud, Song of Syx, etc, etc.)
Con todo ese ladrillo lo que intento decir es que si, a ver es normla ponerse en modo "PARANOICO" por que hay cosas que chirrian y no cuadran y eso es cierto. Hay cositas que han empeorado si o si. Por ponerte un ejemplo, hay muchisimos juegos donde antes veias una calidad normal o baja y no daba asco verlos (Crysis 3, por ejemplo). Sin embargo ahora parece que pones un juego en bajo por que no te queda otra y estas jugando algo de 3 generaciones por debajo del pegote en el que se convierte.
Pero claro, eso es cosa de como quieran ellos optimizar los assets del juego y de los tratos que puedan tener con los fabricantes de tarjetas.
Esto lo pongo en negrita (tranquilos no el parrafo):
Ese video sobre el ray tracing no debería ser sobre el ray tracing. Debería ser sobre por que juegos con gráficos que podríamos decir del montón o incluso "malillos" para la época actual están pidiendo 10 gigas de VRAM para jugarlos con resoluciones 1080p. O el Baldurs gate 3 donde piden una grafica con 8 gigas de memoria grafica cuando el juego viéndose bonito Logicamente no da para eso. Ni es el juego mas grande jamas creado, ni hay nada que tenga un impacto visual que cuando lo ves digas "LA PUTA..."
Lo que vemos en esos juegos son en geenral texturas normalitas, modelados normalitos, poca cosa en pantalla (lo normal seria no cargar medio mundo del juego del tiron si no que cargue segun se requiera, logicamente lo ideal es tener siempre cargado un poco mas de lo que esta al borde de la pantalla para evitar ver aparecer o cargar cositas de golpe.
Pero coño, el problema es eso que nos venden ahora con la ram donde claramente se rien de nosotros y parece que no hay nadie diciéndoles "oye, no ves que estas pidiendo 10 gigas de VRAM y tienes unos materiales del montón, unas texturas que parecen de play station 3, etc, etc. Que no puede ser que ocupe todo la burrada que estas pidiendo salvo que dejes las cosas ahi en crudo para forzar todo esto...
He estado jugando The Outlast Trials y es increible lo bien optimizado que esta. El juego se ve de lujo. Usa Unreal Engine 4, tiene unas texturas cojonudas en general, los materiales super bien hechos, iluminacion, calidad de sombras, etc, etc. El jeugo se desarrolla en mapas super bien detallados con varios enemigos por el mapa patrullando mientras los jugadores (hasta 4) tienen que cumplir una serie de objetivos y escapar). El juego se ve MUCHISIMO MEJOR de loq ue se ve un diablo 4 por poner un ejemplo de tragador de VRAM. Lo tira el PC de mi hija con una 980 Ti a 1440p ultra con dos cosas en alto y amd FSR 2.0 a 75 fps. Y el juego consume maximo 5,4 gigas de VRAM.
Es más, incluso Cyberpunk me consume en mi laptop 5 gigas y pico de vram a 1440p con dlss calidad y todo ultra salvo 3 cosas que dejo sobre calidad media.(SSR, Oclusion y no recuerdo ahora cual mas).
Como puede DIABLO 4 pedir para la mitad de resolución el doble que Cyberpunk que es el exponente grafico actual xD.
Esas son las preguntas que habría que hacerse y las cosas por las que habría que exponer a las compañías, especialmente a las grandes que piden encima pastizales por sus juegos. Y no si el RT es una estafa o no cuando nadie nos esta exigiendo esa tecnología para jugar a gusto. Es una opción que mejora la calidad visual que esta ahí para quien pueda usarla y ya esta. Pero lo que si me parece MUY GRAVE es que tengamos juegos que se ven en general PEOR que juegos mucho mas viejos en ocasiones y estén pidiendo unas burradas de hardware (demostrado ojo, no de requisitos oficiales que esos SIEMPRE han sido inflados) que no concuerda para nada con lo mostrado en pantalla. Y siendo de empresas grandes y con experiencia estas cosas no son por "ske no me di cuenta tio".
Pero el RTX pues eso, es la tecnología puntera que antes solo podías utilizar en granjas de renderizado y aplicarlo a pelicula o renders y que ahora empezamos a ver aplicado en tiempo real en video juegos. Es un avance tecnológico muy bestia haber conseguido eso. Y siendo tan opcional como es, que incluso cuando podemos usarlo MUCHOS NO LO USAMOS por que preferimos que todo fluya mejor normalmente pues eso... Ahí no hay apenas drama.
Ese es el problema real. La falta de optimización que se esta llevando ahora desde hace unos años para aca debido a que "hay potencia de sobra". A que hay cosas como el DLSS y el FSR que hacen que todo tire mejor por arte de magia sin que el dev tenga que hacer absolutamente nada mas que dar a un botón en el motor grafico y aplicarlo.
¿Que al activar Ray tracing decidan adornar un poquito las cosas de más haciendo que lo normal que podria ser mejor no lo sea?. Eso pasaba con las fisicas de nvidia cuandio se pusieron de moda. El famoso Nvidia Physx. Al activarlo veias en juegos como el Batman un monton de particulas , papeles volando, niebla , etc,e t.c Al quitar las fisicas de nvidia no habia NADA.
Y yo siempre decia "pero a ver... Si quito las físicas podría seguir teniendo papelitos volando aun que no tengan física aplicada y podría tener bancos de niebla a ras del suelo igualmente aun que no interactúen con el movimiento de los objetos y claro quedaría mucho mas bonito incluso sin físicas". Pues si, pero había que adornar xD.
Por lo tanto en parte diria que tu "paranoia" pues esta fundada, pero que tampoco hay que darle mas vueltas. Ten en cuenta que es que aun asi si el cyberpunk con y sin rtx teniendo en cuenta la escala del mapa es lo mas bruto que hay en tiempo real incluso sin ray tracing y pide el hardware que pide cuando uno busca calidades altas con resoluciones decentes de al menos 1440p y con calidades rozando el ultra imagina si aun añadiesen mas efectos y mas cosas para intentar reducir la diferencia que vemos en sombras o iluminación cuando tenemos ray tracing activado o no. Entonces estariamos todos llorando por que solo pueden jugarlo los que tienen una 3080 minimo xD.
PERDON POR LAS FALTAS, es mucho texto. Tengo un pajaro corriendo por el teclado mientras escribo y tocando las narices y no para. Y bueno he corregido lo que he podido xD.
Y perdon por otro ladrillo :$
PD: todos a viciar a Dwarf Fortress joder. xD