• Compra una licencia de Windows 10/11 (9,5€) u Office (18,3€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

NVIDIA Blackwell 5000 "La familia"

Al fiinal , con tanto frame generado por IA , en futuras generaciones , acabarán generando el juego entero :LOL: ( suena a broma, pero oye .... que podría pasar )

Parece ser que esta generación si vienes de una serie 40 no vale la pena el cambio, por que no me digan que una 4080 o 4090 no es capaz de mover sobradamente juegos actuales, y mas si estan mejorando el DLSS, que van a ir mejor a partir de ahora . .

Incluso me atrevo a decir que sería buen momento para pillar una 4090 si hay alguna super oferta , o de segunda mano, que mucha gente las cambiará por capricho .
 
Vamos a traer un poquito de humor (y es gracioso porque es todo cierto :) ).

e92u9aotl7de1.png


fghfgh.png


fghfghfgh.png
Muy buenas @Tomassio.

Hay un Hilo para Memes.
De invito a que los resubas allí también.

Saludos.
 
Parece ser que esta generación si vienes de una serie 40 no vale la pena el cambio, por que no me digan que una 4080 o 4090 no es capaz de mover sobradamente juegos actuales, y mas si estan mejorando el DLSS, que van a ir mejor a partir de ahora . .

Desde luego, tengo una 4080 y no hay juego al que no puedo jugar y más yo que la uso el 95% del tiempo en QHD y puntualmente en 4K. Con la mejora de DLSS que van a implementar me puedo olvidar de esta serie 5000, veremos para la 6000 que es lo que ofrecen.

Aún así sigo expectante de las reviews de esta serie 5000 para dejar de especular con filtraciones y también ver lo que AMD va a ofrecer con esa 9070.
 
En la gama "media" creo que esta vez la batalla es para AMD, por los precios ( supuestamente mas asequibles )

Y luego ya, el entusiasta que le sobre el dinero a por gama alta nvidia.

Que realmente con ambas vas a ir bien, la diferencia será de jugar a 140 o a 240 fps 😆
 
La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.

Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.

Las dos únicas pegas que le veo es el imput lag (si decides tocar un botón en el momento que se está generando por IA ese fotogramas no va a responder el juego hasta que llegue al siguiente fotogramas renderizado por la gpu) y la poca implementación de esta tecnología en los videojuegos.

AMD no es tonta y también estaba trabajando en este sentido aunque siempre ha ido 1 o 2 generaciones por detrás.

La cosa es que no estoy justificando el precio desorbitado de las gráficas utilizando este tipo de tecnologías. Los precios desorbitados se justifican porque Nvidia tiene el monopolio en la gama alta.

Lo único bueno es que a las gamas más básicas de gpu esta tecnología les va a venir muy bien.

Lo que creo que hay de fondo en la crítica a este tipo de tecnologias es la frustración que implica pensar que gráficas de 500 euros, de repente, pueden escupir FPS sin ningún sentido y los poseedores de tarjetas de la gama más alta, ya no tiene esa sensación de tener un plus real sobre el resto de usuarios y a algunos les molesta. (no lo digo por ti porque no te conozco).

Estoy de acuerdo en la crítica porque muchas veces nos intentan colar basura, pero también creo en ser equilibrado y reconocer también las virtudes de estas tecnologías.

Inteligencia artificial es un nuevo nombre rimbombante que se acaban de inventar los de marketing, y buenos dividendos que les está reportando el nombrecito, para algo mas antiguo que la tos, llamado de toda la vida Machine Learning. Es decir, que no tiene nada de nueva, existe desde hace mas de medio siglo.

Evidentemente, desde hace medio siglo lleva evolucionando y avanzando en rendimiento al ritmo que lo hacen los procesadores y esto significa que en los últimos años (10, 15, 20 años) el avance se está estancando igual que el de los procesadores. Ahora Nvidia usa sus procesadores gráficos para ello. ¿Cual es la novedad? Me temo que ninguna. Además dan mucho peor rendimiento que los procesadores basados en FPGAs que están diseñando todos los grandes del control y vigilancia de borregos, googletube, meta, alilecheschinoweibo, naver, etc, etc. ¿Cual es el problema de esos? Que no tienen un estandar de programación. Algunos pasan de ello y los que están en la asociación esperaban que gente como Intel tirase del carro, y está ahora bueno Intel como para abrir otro frente y dedicarle recursos.

Pero lo dicho, esto de la IA no tiene nada de nuevo y lo que se sabe ahora, ya se sabía antes. Lo que se hace ahora ya se podía haber hecho antes.

E ir bajando la precisión de los cálculos como está haciendo Nvidia, retrocediendo a niveles ridículos como los usados en los años '70 y '80 solo responde a algo muy sencillo, es la única forma que han encontrado para intentar seguir vendiéndote la burra de que hay avance:

En el espacio que antes hacia una operación de 32bit, ahora puede hace 2 operaciones cutres de 16bits. Bueno, está bien.
Luego Nvidia pensó... en el espacio de esas dos de 16bits, puedo hacer 4 operaciones de 8bits!!!. Bueno, claro, pero que operaciones, unas basurilla sin precisión. Vale, para algo servirán digo yo.
Y ahora acaba de inventar la rueda, ha descubierto que en ese espacio puede hacer 8 operaciones de 4 bits.
4 bits con coma flotante, FP4 (ya he pedido varias veces que alguien me explique como va esto y si gastan 1 ó 2 bits en definir donde está la coma). Una autentica basura que le permite a Nvidia decir que ha multiplicado el rendimiento por 8. Si claro, como si fuese lo mismo hacer una operación de 32bits que una de 4 bits. ;facepalm; . Nvidia está siguiendo la teoría del punto gordo, por la cual 3 lineas cualesquiera se cruzan siempre en un punto. Solo hay que ir haciendo el punto mas gordo hasta que las 3 estén dentro. Esa es la precisión, pero el punto ya es mas gordo que tu pantalla, XD.

Y estos (junto al sparsity) son los avances que lleva vendiéndonos Nvidia los últimos años. La verdad es que todo esto me viene demasiado grande y me gustaría de verdad que alguien lo explicase todo de forma mas o menos sencilla.

La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.

Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.
Si no me explicas mas de la IA no se si me gusta o no. Y no se que limitaciones corrige ni puedo entender como lo hace. Y de forma sencillita, porque si no no me aclaro. Porque en tu mensaje veo muchas palabras molonas pero que no me dicen nada. Optimiza, Inteligente, Corrige, Algoritmo, Mejora. Está claro que está muy bien, la palabra "Mejora" siempre es mejor que la palabra "empeora", pero me parece están viendo un discurso de marketing o un pintamonas en un museo hablándome del último cuadro que ha pintado donde no se ve nada. Vamos, que no entiendo nada. Espero que nos ayudes.

Si por interpolación te refieres a que después de tener un fotograma real, la tarjeta no te lo muestra, se lo guarda oculto, ,va al anterior, mete 3 fotogramas en medio y luego te muestra el fotograma viejo, después el 1falso, luego el 2falso, después el 3falso, y luego el fotograma real que te había ocultado.....

... que quieres que te diga, cuando el juego te vaya a 50 ó 60 falsos/seg vas a tener una latencia sana, sanisima. Y me da igual si le quieres llamar IA o no, como no quebrantes las leyes del tiempo y el espacio vas a tener una latencia de las buenas.

Yo espero que no lo hagan así (aunque no tengo ni idea), sino que sigan la trayectoria por vectores solo de los fotogramas antiguos para inventarse los siguientes sin tener que esperar a saber cual es el fotograma siguiente real, así ahorran algo de tiempo (latencia) aunque igualmente vas a tener 3 fotogramas inventados, que no es poca cosa.

Esto de seguir trayectorias por vectores en los fotogramas tampoco es nada nuevo, se hace desde que el mundo es mundo. Por poner un ejemplo, para ese programa libre, de hace 25 años llamado VirtualDub, tienes un plugin como DESHAKER para estabilizar la imagen y deformarla para que encaje bien con las anteriores y posteriores, donde puedes ver los vectores gráficamente, en vez de en una matriz.



¿Cual es la novedad? ¿cual es la inteligencia artificial? ¿en que se diferencia de lo que he mencionado? ¿cual es la optimización? ¿que es lo que hace el algoritmo inteligente? ¿que limitaciones corrige? Si no nos cuentas mas, pues nos quedamos igual, sin entender nada de estos milagros de la ciencia 100tifika de nvidia.
 
Última edición:
Luego a esperar que salgan juegos con todas esas tecnologias, que de entrada alguno habra, pero estandarizado por asi decirlo llevara rato, como paso con el raytracing o pasa con el path tracing que aun lo traen 3 juegos.
Ahora que los que hacen los port se van a esmerar aun menos, pensaran que vamos a generar fps de la nada :D:D te los lanzan aun mas verdes si cabe, con raster puro 20fps con dlss 4 fg x4 , pues 240fps, listo a gozar :ROFLMAO::ROFLMAO::oops::oops::rolleyes:
 
Luego a esperar que salgan juegos con todas esas tecnologias, que de entrada alguno habra, pero estandarizado por asi decirlo llevara rato, como paso con el raytracing o pasa con el path tracing que aun lo traen 3 juegos.
Ahora que los que hacen los port se van a esmerar aun menos, pensaran que vamos a generar fps de la nada :D:D te los lanzan aun mas verdes si cabe, con raster puro 20fps con dlss 4 fg x4 , pues 240fps, listo a gozar :ROFLMAO::ROFLMAO::oops::oops::rolleyes:
Yo creo que no hay otro camino. Ya vemos como una 4090 a 4k con todo a tope no mueve fluido un ue5. En 1995 ya renderizaba yo con 3dstudio en un pentium con RT en la facultad de arquitectura. Unas 5h tardaba una imagen RT. PT es un intento de imitar la iluminacion real. Si esto tiene que alcanzarse por raster y a 4k a 60fps hará falta una tarjeta del tamaño de mi buhardilla conectada a un enchufe de 25A como el del horno.

Por supuesto que la IA es un concepto de 50 años, como tantos y tantos otros. Pero es ahora cuando hay tecnología para empezar a llevar muchos conceptos a la realidad.

No son frame falsos, son frames calculados por otros metodos pero como consecuencia de unos movimientos de raton o mando. Y renderiza o genera esos en particular y no otros. El proceso determinará si a partir de unos movimientos generará 1 frame como fg o 4 como multi fg. Puede que con el tiempo a 240 fps solo 3 o 4 sean raster y el resto IA vectorial. Veremos. Pero si eso hace que una tarjeta del tamaño actual y con 600w de consumo max pueda poner en pantalla imagenes casi iguales a las que vemos por nuestros ojos, será un exito tecnologico. Eso sí, no haran falta ni actores para crear una pelicula.
 
Arriba