• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

¿El Ray Tracing tiene futuro, o es como el VR?

Gracias a todos por responder.

deadman
Sí, tienes razón, es cierto que el Cyberpunk se ve muy bonito. Vete a saber que se necesita para mover eso sólo a 1080p xDD. Tengo un i5 de 2011, 8gb del 2011, y una 1050ti que compré hace poco. A versi pue do jugarlo en 720p cuando lo optmizen x'D.

Josep83
Eso es verdad, no creo que nadie se compre un equipo de VR para jugar a un juego, además que tiene pinta de cansar y aburrir (no lo sé, no lo he probado). El PhysX o como se escriba, no se si se abandonó o algunos juegos nuevos lo usan. Quizás si el RT también incopora particulas como el PhysX y demás pues lo saquen adelante o algo.

Jesusete
Madre mía... Y yo que tengo un i5 de 2011, 8gb de ram y una 1050 ti que me acabo de comprar x'D. No creo que ni pueda jugar Cyberpunk en 720p. Yo es que hasta que no se me rompe un pc, no me compro otro, porque eso de andar vendiendo peizas y demás que no se como va el tema, paso. Y antes con la 550 ti que tenía, tenía que jugar a todo en 720p o inferior x_D. El próximo pc lo montaré por piezas si puedo. Un portatil gaming de esos gordos también me gustaría pero es más un capricho tonto que tengo. Además no creo que se pueda jugar Cyberpunk en un portátil de esos, no lo sé.

Es cierto compañero, mejor disfrutar el presente que no sabemos como vaa venir el futuro.

Lord Astur
¿Y eso ya ha pasado? Osea, yo compro las versiones baratas de las gráficas para ir tirando y jugando como pueda, tuve una 550ti, ahora tengo una 1050ti, la próxima no sé si será una 2050ti, ésa ya trae RT, o una 3050ti (ni idea no se ni precios ni nada). Lo que quiero decir, es que dicen por ahi que las series 3XXX dicen que son más baratas, no se encomapración con qué series. Pero igual lo que dices ya está pasando o pasarán, porque dicen que la series 3XXX es barata, a lo mejor a mi me convendría comprar una 3XXX en el futuro, después de mi 1050ti, si es que esas son más baratas. He leido por aquí que están vendiendo la serie 2XXX qeu es mas cara. Ya te digo, no me eches mucha cuenta porque solo leo poraquí y por allá.

Pedropc
Ahhh ok, pensé que alguna gráfica gama 3XXX tendría su versión para pobres, como mi nueva 1050ti, me costó 282€ hace poco, creo que me timaron con el precio, para ser una gráfica tan vieja. Osea, que las series 3XXX van por enciamde los 300€. Entonces tienes razón, habrá que esperar compañero u.u.

Megaman
¿Osea, que trae lo mismo que traía el PhysX, y más cosas? Eso está super bien. ¿Qué 3 fabricantesde gráficas, no solo existe Nvidia, y AMD? Y bueno, los pobres de AMD, no veo a casi nadie del foro con gráficas AMD :( y eso que parece una buena empresa. Todos los juegos parecen estar conpinchados con Nvidia, al inicair un juego sale el logo de nvidia, casi siempre.

Migue
Hombre, si se implementa y no suben una barbaridad de precio, no pasa nada. Siempre y cuando en el juego de pueda desactivar el RT para conseguir más FPS y demas, todo perfecto. Lo malo va a ser los minadores esos de monedas, si el RT ayuda a minar monedas más rápido, el precio y el stock va a seguir siendo un asco todos los años.

Las 3000 han (o están en ello) bajado respecto a las 2000, aunque las 2000 salieron caras, así que... Veremos a ver cómo evoluciona. El punto dulce para 1080p 60 fps solía moverse entre los 200 y los 230 €. Veremos a ver si las gráficas que salgan por esos precios son capaces de mover esa resolución y tasa de refresco, y si además incorporan RT (aunque sea a costa de sacrificar fps). La 2050Ti no existe, no la sacaron, en su lugar estaba la 1650/1650 Super; a ver si ahora aparece, ya el año que viene, una hipotética 3050, o 3050 Ti, o lo que saquen, y a qué precios. De momento parece que se espera para enero la 3060, y mucho me temo que ronde los 300 € o tal vez algo más; y habrá que ver qué saca AMD también en ese rango de precios. De momento, aguanta con esa 1050 Ti.
 
El PhysX o como se escriba, no se si se abandonó o algunos juegos nuevos lo usan.
Está englobado en lo que hoy en día son los Nvidia Gameworks, dentro de ese grupo de efectos está PhysX.
 
O3M✓
Ojalá así sea :D/

Migue
¿Ésa es la 3º empresa que dices que va a hacer gráficas, intel? Wow, yo siempre he pensado que los mejores procesadores los hacía intel, hasta que llegó AMD, y en gráficas las mejores Nvidia, con las de AMD algunos usuarios reportaban problemas aquí en el foro. Pero intel haciendo gráficas, no me lo esperaba, como AMD, ahora ambos harán microprocesador y gráficas, no sé, que raro, no lo veo, pero la competencia es buena.

¿AMD también puede hacer RayTracing? Porque el PhysX de Nvidia creo que ellos tenían los derechos o algo así. No sé como va el tema de las patentes y esas cosas. AMD creo que no podía usar el PhysX en los juegos, y te lo bloqueaba.

Lord Astur
Sí sí, ya me quedo con esta 1050 hasta que aguante el pc. He pagado 280€ por esta 1050 ti (me parece una estafa pero bueno), así que si por ese precio si sale una 3XXX en el futuro, pues estará bien.

Pensé que ya habían salido todos los modelos de la 3XXX.

Josep83
Ahhh vale, eso se me ha instalado, desde steam o al actualizar drivers o algo, no lo recuerdo, no lo sabía gracias.
 
Última edición:
¿Ésa es la 3º empresa que dices que va a ahcer gráficas, intel? Wow, yo siempre he pensado que los mejores procesadores los hacía intel, hasta que llegó AMD, y en gráficas las mejores Nvidia, con las de AMD algunos usuarios reportaban problemas aquí en el foro. Pero intel haciendo gráficas, no me lo esperaba, como AMD, ahora ambos harán microprocesador y gráficas, no sé, que raro, no lo veo, pero la competencia es buena.

¿AMD también puede hacer RayTracing? Porque el PhysX de Nvidia creo que ellos tenían los derechos o algo así. No sé como va el tema de las patentes y esas cosas. AMD creo que no podía usar el PhysX en los juegos, y te lo bloqueaba.

El problema de los "problemas que reporta la gente", sean de AMD, de Intel o de Nvidia, es que se suelen poner los problemas en los foros, pero no las cosas buenas, por eso nos quedamos con esos problemas.

AMD tambien puede ejecutar RayTracing, la cosa es que no tiene hardware dedicado a ello, y emplea otra parte del chip de la VGA en hacerlo. Lo digo, por que en la PS5, lo tiene en el Call of Duty, y la CPU y VGA es AMD. Todavia le queda mas camino que ha Nvidia, pues ha empezado mas tarde, y le costara una o dos generaciones en implementarlo al 100%. Lo mismo con el DLLS, tambien lo va a implementar en sus RX 6xxx.

Que Intel entre en el mercado de las VGAs dedicadas, es una buena noticia para los consumidores, otro "gallo en el corral", nos dara mas competencia, y todas se tendran que poner las pilas aun mas.

En fin, que estamos viviendo una epoca buena en los procesadores, donde tenemos CPUs cojonudas donde elegir, de varias marcas, a ver si dentro de poco, pasa lo mismo en VGAs.

Un saludo.
 
Joder que clarividente...
Y me puedes decir los tres ultimos numeros del gordo de navidad de este año??.
ajajajaj

Espero que el RT, no sea como el SLI o Crosffire, sino ya vamos apañados....
 
Mi opinion es que el RT se va a estandarizar. Que lo incluyeran en consolas es a lo que apunta, ¿cuando llegará su democratizacion? No lo se, estando en las consolas es dificil decir que llegará mas tarde que pronto, aún así quizá deberemos esperar 5/6 o algún año más a la siguiente gen de consolas (si algún dia llegan a salir y no pasamos ya al juego en la nube)
 
¿AMD también puede hacer RayTracing? Porque el PhysX de Nvidia creo que ellos tenían los derechos o algo así. No sé como va el tema de las patentes y esas cosas. AMD creo que no podía usar el PhysX en los juegos, y te lo bloqueaba.
AMD está empezando ahora a implementar el RT ahora con sus RX 6000, desconozco si las RX 5000.

Nvidia tiene sus nucleos RTX que lo realizan a su manera mientras que AMD lo hace por otra vía.

Por otro lado, todo lo relacionado con Nvidia Gameworks es propietario de Nvidia y solo se puede realizar con GPUs de la marca, pero si se llega a acuerdos con los desarrolladores, como fué el caso de The Witcher 3 con los Hairworks, se puede llegar a liberar para GPUs de AMD, aunque claro, es un software diseñado y pulido por y para GPUs de Nvidia y tienen una importante merma en el rendimiento en otras marcas.

En cuanto al RT, pues de momento solo Nvidia es capaz de hacerlo en juegos (hasta no hace mucho), porqué sacó los núcleos RTX para ello, pero en DX12 y Vulkan hay las librerías para RT en formato estandarizado y opensource.
Pero digamos que el tener los coprocesadores para RT, los gráficos los generan los CUDA cores y el RT los calculan en paralelo los RT cores y además a todo eso ya le añades los Tensor cores a la ecuación y le puedes dar el fabuloso reescalado DLSS.

La cosa es esta, mientras que Nvidia trabaja en base al hardware, AMD lo hace en base al software.
2 filosofías y maneras diferentes de afrontar el mismo "efecto".

PD:
Otra vez Pedropc te me has vuelto a adelantar, XD.
 
Mi opinion es que el RT se va a estandarizar.
Que va a estandarizarse, si.

Que será el estándar, la norma a seguir?
Pues yo creo que no, porqué realmente con el rasterizado se pueden conseguir cosas muy logradas y mucho menos demandantes a nivel de hardware, cosa que en competitivo se agradecerá.

Es como haberle puesto RT al Fornite, si juegas en una TV capado a 60fps te va a dar igual, e incluso lo agradecerás más puesto que la merma en el rendimiento caerá por fuera del margen de los 60fps, si de 90fps pasas a 70fps, sigue estando por encima de 60fps.
Aplíquese esto a juegos AAA de campaña o de 1 solo jugador, donde primas más la calidad gráfica y la resolución.
Sin embargo en juegos online y competitivos, donde una alta tasa de refresco es importante, el RT no tiene cabida, ya que cada frame cuenta.

Por otro lado, está claro que en PC (y en consolas cada vez más) siempre ha existido la posibilidad de configurar el juego a tus gustos o necesidades según el hardware que tengas y el RT es y será opcional con tal de llegar al mayor número de PCs posibles.

Ojo y yo soy de los que pasa en lo posible del multiplayer de lo juegos, prefiero juegos para 1 solo player y modos campaña.
Y juego en una TV 4K y con 1 mando.

EDIT:
Sin ir más lejos, Cyberpunk 2077 en Demencial sin RTX y DLSS en Calidad va finísimo (bugs aparte)
 
Última edición:
Josep83
¿Osea, que si antes a la hora de comprar una gráfica tenías que tener en cuenta cuántos CUDA CORES tenía ésa gráfica Nvidia, ahora también hay que tener en cuenta cuántos RT CORES tiene?
 
Hombre yo compro que es muy probable que para juegos donde tengas que primar no perder ni medio FPS de los 300Hz de tu monitor vale. Pero es que esos juegos son una minoría y una gran cantidad de gente juega a 60Hz o menos (consolas) entonces creo que será la norma a seguir y que serán raros los juegos que no lo tengan.
Habrá juegos que vengan sin ello seguro, un CS nunca le hará falta, pero como dicen los compañeros el RT hace cosas que la rasterizacion no y eso aunque se note algo pues supondrá un avance y viendo lo parada que esta la cosa es algo que va a ir pegandose con el avance del hardware
 
Ojo y yo soy de los que pasa en lo posible del multiplayer de lo juegos, prefiero juegos para 1 solo player y modos campaña.

Ostia Compi, mas te leo, mas afines somos. Yo igual, soy un "antisocial", me gusta jugar solo, campaña y listo. No he jugado multiplayer en la vida. Pensaba que era el unico raro. :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO:.

Un saludo.
 
Josep83
¿Osea, que si antes a la hora de comprar una gráfica tenías que tener en cuenta cuántos CUDA CORES tenía ésa gráfica Nvidia, ahora también hay que tener en cuenta cuántos RT CORES tiene?
Que va.
Con mirarte si es una XX50, XX60, XX70, XX80 o XX90 ya tienes una idea de cual es mejor y cual es peor.
Ya que los CUDA cores no sirven de referencia entre generaciones.

La RTX 3070 tiene más CUDA que la RTX 2080 Ti, pero esta última sigue rindiendo un poco más que la nueva.

Es como los "famosos" TFLOPS, es un cálculo basado en números, donde no se tiene en cuenta el IPC de las GPUs.
Se pueden hinchar mucho esos números, pero si al final no se tiene un buen IPC la GPU no rinde, punto.
 
Pregunta desde la ignorancia;

Se puede tener una VGA AMD como principal, y una VGA Nvidia para emplearse en el RTX ?????

Un saludo.
 
Ostia Compi, mas te leo, mas afines somos. Yo igual, soy un "antisocial", me gusta jugar solo, campaña y listo. No he jugado multiplayer en la vida. Pensaba que era el unico raro. :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO: :ROFLMAO:.

Un saludo.
Pues si Pedro, el online lo juego si lleva Coop, si no lo descarto.

Un juego que he disfrutado mucho mucho fué el Borderlands 2, que me pasé con un buen amigo la campaña en Coop.
Pero en general es algo que no se termina de potenciar en los juegos.
Otro que me gustó mucho fué el The Division, el rollo de meterte en la Zona Oscura y encontrarte con otros jugadores, hacer equipo e ir avanzando por el mapa o ayudar en las extracciones era muy guapo.

Pregunta desde la ignorancia;

Se puede tener una VGA AMD como principal, y una VGA Nvidia para emplearse en el RTX ?????

Un saludo.
Respuesta desde la ignorancia también.
Yo creo que no, ya que para generar los gráficos para RT deben hacerse desde la propia GPU de Nvidia.

Pero puedes tener ambas GPUs instaladas en la placa base e intercambiarle las salidas según te interese generar un tipo u otro de gráficos.

Yo es algo que esperaba que se hiciera, tipo como lo de dedicar una GPU al PhysX, yo teniendo un SLI de GTX 1080, por ejemplo, podría haber empleado la GPU principal para generar los gráficos y tener la 2ª GPU para realizar RT, pero eso es algo que Nvidia no ha sabido o no ha querido hacer, desconozco si hubiera sido viable, pero mi Placa Base y mi CPU soportan hasta 40 líneas PCIe, mi SLI era x16/x16.
 
Yo lo decia, por que si se podia hacer, pues intentar coger una RTX2060 de segunda mano (cuando la gente deje de flipar con los precios), y ponerla junto con la 6900XT para que se encargase de RT. A ver, que no es que el RT me quite el sueño ni muchos menos, pero no voy a mentir, "a nadie le amarga un dulce".

Un saludo.
 
Muy ilustrativo este video de Digital Foundry sobre el RT
 
Pues si Pedro, el online lo juego si lleva Coop, si no lo descarto.

Un juego que he disfrutado mucho mucho fué el Borderlands 2, que me pasé con un buen amigo la campaña en Coop.
Pero en general es algo que no se termina de potenciar en los juegos.
Otro que me gustó mucho fué el The Division, el rollo de meterte en la Zona Oscura y encontrarte con otros jugadores, hacer equipo e ir avanzando por el mapa o ayudar en las extracciones era muy guapo.


Respuesta desde la ignorancia también.
Yo creo que no, ya que para generar los gráficos para RT deben hacerse desde la propia GPU de Nvidia.

Pero puedes tener ambas GPUs instaladas en la placa base e intercambiarle las salidas según te interese generar un tipo u otro de gráficos.

Yo es algo que esperaba que se hiciera, tipo como lo de dedicar una GPU al PhysX, yo teniendo un SLI de GTX 1080, por ejemplo, podría haber empleado la GPU principal para generar los gráficos y tener la 2ª GPU para realizar RT, pero eso es algo que Nvidia no ha sabido o no ha querido hacer, desconozco si hubiera sido viable, pero mi Placa Base y mi CPU soportan hasta 40 líneas PCIe, mi SLI era x16/x16.
Es como un SLI, una normal y otra para RT, osea, sin soporte y multitud de Fallos, como el mencionado SLI... Vamos otro asco, pero molaría, que se pudiese hacer...
 
Es como un SLI, una normal y otra para RT, osea, sin soporte y multitud de Fallos, como el mencionado SLI... Vamos otro asco, pero molaría, que se pudiese hacer...
Si y no, el SLI era una pasada.

Cuando era su momento, hace unos 4 o 5 años, te metías 2 GPUs tochas y tenías algo descomunal, y el 90% de los juegos lo soportaban.

Fué a raiz del Unreal Engine 4 que se perdió ese soporte y a partir de este momento fué su declive.
 
Arriba