• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Poniendo en duda el Ray-Tracing

Opino como la mayoría, si mi objetivo son los 144 fps y el RT merma para no poder llegar a esa cifra, apagado se queda (y se quedará porque con mi gráfica actual no tiene sentido).

Y con respecto a esta imagen que ha compartido @Juez ya no es que no tenga RT activado (izquierda), si no que además parece que las sombras están al mínimo (¿?).

MtR0inO.jpg


Es que en la escena no se aprecia ni una sola sombra, ni si quiera debajo del sombrero del npc. Cuando en las imágenes donde lo comparábamos antes si habían.

Igual soy muy paranoico, pero no me deja de chirriar xD
 
El que ponga en tela de juicio que el RT se nota, o es un frustrado por no poder usarlo, o tiene otro tipo de problema.

Ahora bien, activarlo en un juego con bastante acción, no lo veo recomendable, no creo que compense la pérdida en fps por detalles que no vas a poder apreciar por tener que estar atento y reaccionar rápido a enemigos, etc.
 
El que ponga en tela de juicio que el RT se nota, o es un frustrado por no poder usarlo, o tiene otro tipo de problema.

Ahora bien, activarlo en un juego con bastante acción, no lo veo recomendable, no creo que compense la pérdida en fps por detalles que no vas a poder apreciar por tener que estar atento y reaccionar rápido a enemigos, etc.
Se nota, según el juego en menor o mayor medida. Pero en los casos donde menos se aprecia, para notar la diferencia tienes que estar parado, mientras juegas no te fijas en eso.

Igualmente con motores más recientes como unreal engine 5 todo se verá mucho más realista y quizá no dependa tanto del RT para notar una diferencia más marcada (salvo en ambientes oscuros o nocturnos).
 
Opino como la mayoría, si mi objetivo son los 144 fps y el RT merma para no poder llegar a esa cifra, apagado se queda (y se quedará porque con mi gráfica actual no tiene sentido).

Y con respecto a esta imagen que ha compartido @Juez ya no es que no tenga RT activado (izquierda), si no que además parece que las sombras están al mínimo (¿?).

MtR0inO.jpg


Es que en la escena no se aprecia ni una sola sombra, ni si quiera debajo del sombrero del npc. Cuando en las imágenes donde lo comparábamos antes si habían.

Igual soy muy paranoico, pero no me deja de chirriar xD

Tu ten en cuenta una cosa. A lo largo de los años hemos pasado de renderizar unas cosas de una forma y otras de otra. Antes había juegos donde con hardware mucho menos potente aplicábamos self-shadows cosa que no tiene la imagen esa SIN RT. Pero es que antes no tenias que aplicar eso a decenas de cientos de objetos en cada escena, más tener en cuenta todo el resto de enormidad grafica que puede tener un juego actual.

A mi sorprendio mucho una cosa...

1-¿Como era posible ver las fisicas de half life 2 cuando solo existian en esa epoca CPUs de 1 solo nucleo. Y la grafica con mas memoria eran 256 MB. Mientras que hoy e ndia en general los juegos no tienen esas fisicas de serie ni forzando.
2-¿Como es posible que juegos como DOOM 3 o Cronicas de Riddick o Fear, tuviesen esa iluminación, y sobre todo ESAS SOMBRAS moviéndose todo con CPUS de 1 nucleo y graficas de 256 megas de ram?.
3-¿Como puede ser que antes tuviésemos incluso scripts de comportamiento para NPC, muchos mas avanzados que ahora y con lo mismo que antes, osea hardware "de mierda" en comparación con el actual y ahora solo vemos muñecos que rozan el retraso mental a todos los niveles?.

La respuesta es compleja pero en parte unas cosas son por simple y pura vagancia de las desarrolladoras. Otra parte se responde (la de las SOMBRAS) en que no tenían la calidad que nos creíamos que tenían. Un dia de sombras chulas como en doom 3 pasamos a sombras hechas "con puntitos" que se veían guarrisimas y poco precisas lo cual a mi sin tener ni idea me parecía un bajón tremendo (GTA4).

Y que pasó con la "IA" tan chula que tenia Halo 1 y 2 o mejor aun F.E.A.R. donde los malditos NPC reaccionaban de lujo en combate en los fregaos que montábamos. Mientras que ahora ves a los NPC y solo son pollos sin cabeza ni un control mínimo sobre nada de lo que hacen.. Pues esta parte es ya VAGANCIA PURA Y DURA y no querer complicarse la vida para NADA.

Eso si, tambien hay que entender que aun que hayan pasado un monton de generaciones de hardware y hemos logrado ir optimizando el software de mil maneras. Al final estamos usando una tecnologia que viene arrastrada desde los años 70. Usamos lenguajes de programación que aun que también se han ido adaptando y mejorando siguen viniendo con una base enorme creada en los años 70/80.

Y no hay que olvidar que aun que tenemos maquinas tremendas en casa ya, como normalidad sistemas con 16 hilos de ejecución y tal que siguen siendo lo mismo que cuando teníamos 1 solo núcleo. Es decir. Se lee el código y todo lo que ocurre de forma secuencial. Luego ya lo mareamos mediante bucles para controlar el control de flujo de los programas (programas en general, juegos, SOs, y lo que queramos). Es decir que aun que todo ha cambiado "mucho" no ha cambiado nada al mismo tiempo.

Que se ha tenido que renegar en unos casos de ciertas cosas, para poder mejorar otras eso es seguro. Por que los caminos de los que han ido creando al tecnología se han ido desviando por otras cosas que igual pensaron que les parecía mejor (ya fuese económicamente o en computo general).

Yo tengo una "pelea" con los video juegos nuevos y viejos en el sentido de que no logro entender como es posible que aun hoy en dia nadie logre superar juegos que tienen 20 o incluso cerca de 30 años. ¿En que estamos gastando la potencia y la tecnología actual?. En pegotes de cartón piedra cada vez mas bonitos. De ahi mi pasion sobre todo por los indie y cuanto mas especiales mejor (Dwarf Fortress, Caves of Qud, Song of Syx, etc, etc.)


Con todo ese ladrillo lo que intento decir es que si, a ver es normla ponerse en modo "PARANOICO" por que hay cosas que chirrian y no cuadran y eso es cierto. Hay cositas que han empeorado si o si. Por ponerte un ejemplo, hay muchisimos juegos donde antes veias una calidad normal o baja y no daba asco verlos (Crysis 3, por ejemplo). Sin embargo ahora parece que pones un juego en bajo por que no te queda otra y estas jugando algo de 3 generaciones por debajo del pegote en el que se convierte.
Pero claro, eso es cosa de como quieran ellos optimizar los assets del juego y de los tratos que puedan tener con los fabricantes de tarjetas.



Esto lo pongo en negrita (tranquilos no el parrafo):
Ese video sobre el ray tracing no debería ser sobre el ray tracing. Debería ser sobre por que juegos con gráficos que podríamos decir del montón o incluso "malillos" para la época actual están pidiendo 10 gigas de VRAM para jugarlos con resoluciones 1080p. O el Baldurs gate 3 donde piden una grafica con 8 gigas de memoria grafica cuando el juego viéndose bonito Logicamente no da para eso. Ni es el juego mas grande jamas creado, ni hay nada que tenga un impacto visual que cuando lo ves digas "LA PUTA..."
Lo que vemos en esos juegos son en geenral texturas normalitas, modelados normalitos, poca cosa en pantalla (lo normal seria no cargar medio mundo del juego del tiron si no que cargue segun se requiera, logicamente lo ideal es tener siempre cargado un poco mas de lo que esta al borde de la pantalla para evitar ver aparecer o cargar cositas de golpe.

Pero coño, el problema es eso que nos venden ahora con la ram donde claramente se rien de nosotros y parece que no hay nadie diciéndoles "oye, no ves que estas pidiendo 10 gigas de VRAM y tienes unos materiales del montón, unas texturas que parecen de play station 3, etc, etc. Que no puede ser que ocupe todo la burrada que estas pidiendo salvo que dejes las cosas ahi en crudo para forzar todo esto...

He estado jugando The Outlast Trials y es increible lo bien optimizado que esta. El juego se ve de lujo. Usa Unreal Engine 4, tiene unas texturas cojonudas en general, los materiales super bien hechos, iluminacion, calidad de sombras, etc, etc. El jeugo se desarrolla en mapas super bien detallados con varios enemigos por el mapa patrullando mientras los jugadores (hasta 4) tienen que cumplir una serie de objetivos y escapar). El juego se ve MUCHISIMO MEJOR de loq ue se ve un diablo 4 por poner un ejemplo de tragador de VRAM. Lo tira el PC de mi hija con una 980 Ti a 1440p ultra con dos cosas en alto y amd FSR 2.0 a 75 fps. Y el juego consume maximo 5,4 gigas de VRAM.

Es más, incluso Cyberpunk me consume en mi laptop 5 gigas y pico de vram a 1440p con dlss calidad y todo ultra salvo 3 cosas que dejo sobre calidad media.(SSR, Oclusion y no recuerdo ahora cual mas).

Como puede DIABLO 4 pedir para la mitad de resolución el doble que Cyberpunk que es el exponente grafico actual xD.

Esas son las preguntas que habría que hacerse y las cosas por las que habría que exponer a las compañías, especialmente a las grandes que piden encima pastizales por sus juegos. Y no si el RT es una estafa o no cuando nadie nos esta exigiendo esa tecnología para jugar a gusto. Es una opción que mejora la calidad visual que esta ahí para quien pueda usarla y ya esta. Pero lo que si me parece MUY GRAVE es que tengamos juegos que se ven en general PEOR que juegos mucho mas viejos en ocasiones y estén pidiendo unas burradas de hardware (demostrado ojo, no de requisitos oficiales que esos SIEMPRE han sido inflados) que no concuerda para nada con lo mostrado en pantalla. Y siendo de empresas grandes y con experiencia estas cosas no son por "ske no me di cuenta tio".

Pero el RTX pues eso, es la tecnología puntera que antes solo podías utilizar en granjas de renderizado y aplicarlo a pelicula o renders y que ahora empezamos a ver aplicado en tiempo real en video juegos. Es un avance tecnológico muy bestia haber conseguido eso. Y siendo tan opcional como es, que incluso cuando podemos usarlo MUCHOS NO LO USAMOS por que preferimos que todo fluya mejor normalmente pues eso... Ahí no hay apenas drama.

Ese es el problema real. La falta de optimización que se esta llevando ahora desde hace unos años para aca debido a que "hay potencia de sobra". A que hay cosas como el DLSS y el FSR que hacen que todo tire mejor por arte de magia sin que el dev tenga que hacer absolutamente nada mas que dar a un botón en el motor grafico y aplicarlo.


¿Que al activar Ray tracing decidan adornar un poquito las cosas de más haciendo que lo normal que podria ser mejor no lo sea?. Eso pasaba con las fisicas de nvidia cuandio se pusieron de moda. El famoso Nvidia Physx. Al activarlo veias en juegos como el Batman un monton de particulas , papeles volando, niebla , etc,e t.c Al quitar las fisicas de nvidia no habia NADA.

Y yo siempre decia "pero a ver... Si quito las físicas podría seguir teniendo papelitos volando aun que no tengan física aplicada y podría tener bancos de niebla a ras del suelo igualmente aun que no interactúen con el movimiento de los objetos y claro quedaría mucho mas bonito incluso sin físicas". Pues si, pero había que adornar xD.

Por lo tanto en parte diria que tu "paranoia" pues esta fundada, pero que tampoco hay que darle mas vueltas. Ten en cuenta que es que aun asi si el cyberpunk con y sin rtx teniendo en cuenta la escala del mapa es lo mas bruto que hay en tiempo real incluso sin ray tracing y pide el hardware que pide cuando uno busca calidades altas con resoluciones decentes de al menos 1440p y con calidades rozando el ultra imagina si aun añadiesen mas efectos y mas cosas para intentar reducir la diferencia que vemos en sombras o iluminación cuando tenemos ray tracing activado o no. Entonces estariamos todos llorando por que solo pueden jugarlo los que tienen una 3080 minimo xD.


PERDON POR LAS FALTAS, es mucho texto. Tengo un pajaro corriendo por el teclado mientras escribo y tocando las narices y no para. Y bueno he corregido lo que he podido xD.

Y perdon por otro ladrillo :$


PD: todos a viciar a Dwarf Fortress joder. xD
 
Se nota, según el juego en menor o mayor medida. Pero en los casos donde menos se aprecia, para notar la diferencia tienes que estar parado, mientras juegas no te fijas en eso.

Igualmente con motores más recientes como unreal engine 5 todo se verá mucho más realista y quizá no dependa tanto del RT para notar una diferencia más marcada (salvo en ambientes oscuros o nocturnos).
AH perdon olvide mencionar lo de UNREAL ENGINE 5...

Eso va a seguir pidiendo un maquinon. UE 5 sigue usando ray tracing, solo es otra forma de aplicarlo y tal. (Al menos que yo sepa)
 
@Juez tienes toda la razón, cada vez se esfuerzan menos en sacar juegos en condiciones, sólo les interesa vender y vender. Cyberpunk fue víctima de ello, siendo que aún no estaba preparado para su lanzamiento pero se apresuró porque iba a ser el buque insignia de Nvidia para su recién lanzada serie RTX 3000. Y la cantidad de bugs que tuvo al principio no sé si lo llega a superar algún otro caso.

Hace tiempo en otro foro comenté que me parecía insultante que para ciertos juegos en 1080p hiciera falta una RTX 2060 para poder jugar de forma decente, cuando esa resolución ya era el estándar desde hace muchos años (y lo sigue siendo). A día de hoy que ya muchos se han ido pasando a 1440p y altas tasas de refresco, es normal que necesites algo más potente. Pero que aún se hagan gráficas para 1080p y se considere gama media no. La RTX 4060 se vende orientada a 1080p/60fps, al igual que la RTX 3060 y RTX 2060 cada una en su momento, y así.

Tienes razón que no hay que darle tanto bombo al RT. Aunque también hay que tenerlo en cuenta pues al final estamos pagando el precio del hardware que traen las gráficas para el RT. Si nos dieran una opción sin RT más económica...
 
@Juez tienes toda la razón, cada vez se esfuerzan menos en sacar juegos en condiciones, sólo les interesa vender y vender. Cyberpunk fue víctima de ello, siendo que aún no estaba preparado para su lanzamiento pero se apresuró porque iba a ser el buque insignia de Nvidia para su recién lanzada serie RTX 3000. Y la cantidad de bugs que tuvo al principio no sé si lo llega a superar algún otro caso.

Hace tiempo en otro foro comenté que me parecía insultante que para ciertos juegos en 1080p hiciera falta una RTX 2060 para poder jugar de forma decente, cuando esa resolución ya era el estándar desde hace muchos años (y lo sigue siendo). A día de hoy que ya muchos se han ido pasando a 1440p y altas tasas de refresco, es normal que necesites algo más potente. Pero que aún se hagan gráficas para 1080p y se considere gama media no. La RTX 4060 se vende orientada a 1080p/60fps, al igual que la RTX 3060 y RTX 2060 cada una en su momento, y así.

Tienes razón que no hay que darle tanto bombo al RT. Aunque también hay que tenerlo en cuenta pues al final estamos pagando el precio del hardware que traen las gráficas para el RT. Si nos dieran una opción sin RT más económica...

Por eso vaoloro tantisimo maravillas indie como Dwarf Fortress, Caves of Qud o Kenshi por poner unos ejemplos rapidos y epicos :D

Juegos hecho con ganas y con mecanicas que sobrepasan la profunidad en todos los sentidos que puede ofercer el juego mas tocho que se pueda imaginar de una mega corporacion generica xD
 
Otro que se suma al carro del RT, si este esta bien implementado. En Cyberpunk es una locura!!! Otro juego que me gusto mucho el RT aunque sea inferior al de Cyberpunk es el Metro (la versión RTX).. Muy buena implementación con un consumo de recursos ajustado.
Ciertamente hay otros juego que no vale la pena, y si tu objetivo son mas FPS (o estabilidad) para los competitivos pues se entiende no activarlo.

Por cierto, como dijo @Juez, le veo jugar a juegos que poco RT tendrá.. Y muchas gracias por esas peazo explicaciones!!! Para algunos seran un ladrillo, para otros (en los que me incluyo) un lujo leer algo tan detallado y bien explicado. 👏👏👏
 
Lo de las desarrolladoras es un tema peliagudo. Ahora mismo con la implementación en las nuevas generaciones del reescalado y del frame generation la optimización brilla por su ausencia. Es como si solo apuntaran a conseguir con las graficas mas populares de 40 a 60fps y que para lo demás bregue el DLSS y FSR, Ni hablar de los ports, donde lo anterior lo llevan a limites absurdos.

Con mi actual GPU no he tenido que tirar mucho del DLSS, llámenme maniático pero yo si veo emborronada la imagen (sobre todo en las esquinas) cuando lo he activado. No se si en las 40XX el DLSS3 haya mejorado en este sentido, si se que te escupe mas FPS.

No soy de entrar muy al trapo de los AAA, lo mío es mas simuladores de conducción y en ninguno de estos hay RT o DLSS obviamente. Cuando he comprado algún AAA, es ya luego de meses de su lanzamiento, odio ser betatester. El Cyberpunk lo disfrute mucho (he sacado 4 finales me parece) y no vi ningun bug, el Red Dead Redemption 2 es una joya, que he ido masticando poco a poco, tengo mas de 30 horas jugadas y solo he avanzado en la historia un 30%.
 
Última edición:
El que ponga en tela de juicio que el RT se nota, o es un frustrado por no poder usarlo, o tiene otro tipo de problema.

Ahora bien, activarlo en un juego con bastante acción, no lo veo recomendable, no creo que compense la pérdida en fps por detalles que no vas a poder apreciar por tener que estar atento y reaccionar rápido a enemigos, etc.
Se puede decir más alto pero no más claro.
Totalmente de acuerdo compañero.

El aumento de calidad se nota, en efectos de luz, en reflejos y en sombras más realistas y/o naturales.
Otra cosa es que realmente se llegue a apreciar y que compense la merma de rendimiento que supone ese "plus de calidad" para según que juegos.

Solamente hay que fijarse en el Quake II RTX o en el Portal RTX, donde usando los mismos motores gráficos desfasados de esos juegos antiguos, se observan unos efectos mejorados muy guapos.
Y una exigencia y una merma del rendimiento bastante grande también.

Saludos.
 
Arriba