• ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

NVIDIA Blackwell 5000 "La familia"

Ya tenemos una estimación del rendimiento en 4K calculado a partir de los slides del CES:
50-vs-40-series-nvidia-benchmark-exact-numbers-v0-hrmvcs0tulbe1.png
Eso es falso.
Es una estimación sin sentido.
De hecho hoy han salido nuevas imágenes de lo que rinden según Nvidia ,y es lo esperado.
Pequeña mejora en raster ,ya está.
El resto ,mediante UA y FGx4.Si no, nanai.

De hecho, Tampico hay que ser Einstein para ver qué esa tabla ,por .mucho curro que tenga ,no tiene sentido alguno.

Sacamos las especificaciones de la 5090 ,que son el doble que las de la 5080.
Segunda esa tabla ,la diferencia es de un 30% (a ojo) entre ambas
Ok.

Venga ,vamos a creerlo.

Resulta ,que volvemos con más especificaciones ,y tenemos que una 5070Ti esta muuuuu cerca de la 5080.
Vamos a la tabla y ...milagro!
Con tan poca diferencia ,hay otro 30% entre la 5080 y la 5070Ti.

O sea , que la 5090 tiene que doblar en especifhcaciones a la 5080 para meterle un 30% ,pero a la 5080 le basta con ser un pelo mejor en especificaciones que la 5070Ti,para meterle el mismo 30%.

He visto cuentos más creíbles.

Evidentemente ,la que no cuadra ahí es la 5080.

Ya dije que iba a ser peor que la 4090 y que la 4090 iba a ser top 2 en esta gen.
No voy muy desencaminado.

Y ya hoy han dejado casi al 100% claro, que la 5070 sacaría entorno a un 4% a la 4070 en raster ,lo cual es muy triste.
La 5080, sacaría sobre un 10-15% a la 4080 super ,lo cual es algo decepcionante y la posiciona sobre el 10-15% por debajo de la 4090 y sobre el 35-45% por debajo de la 5090.

Y también han probado el CP2077 con el dlss4 y multi FG , y la tanecia no es muy convincente (55ms).Ojo ,esto con una 5090 que parte de más FPS base.
A peor gráfica ,más frames inventados y mayor latencia .

Lo que sí parece haber sido más satisfactoria es la parte gráfica , donde parece que está bastante conseguido ,y habiendo sus fallos gráficos ,tampoco es una cosa que se note mucho.
Eso es bastante positivo.

Este gen ,salvo milagro, me deja un poco..."meh".
Ya pueden llevar muchos juegos ese DLSS 4.

El vídeo en cuestión:

@SkamoT
Las 3000 y las 4000 se benefician de todo el DLSS 4 con todas sus mejoe s , excepto el multi FG y las 3000 excepto el FG.

Me queda la duda del Reflex 2 ,que he leído que de inicio, funcionará solo en las 5000, y esa me parece una mejora muy buena para tener en todas las gráficas

Estás 5000 ,para el que tenga una 4000, no creo que le compense en absoluto.
Básicamente la mejora es el FGx4 , lo cual ya hace subir latencia y tener oeor s gráficos ,aunque puedan estar muy bien.
Y luego,dep nder de que el juego de turno, lleve DLSS 4.Que esa es otra.

Tú imagin, por ejemplo, que trincas una 5070 ve siendo una 4070
Pones un juego sin DLSS 4.
Es que son básicamente ,iguales.Por poner un ejemplo.
Sí ,mejora en RT , p ro en muchos juegos ,ni con esas van bien con RT ,y eso ,si lo lleva.

No sé....
Yo no lo veo.

Yo iba en su momento enmelonado a saltar a la 5090 y menos mal que eché el freno cuando casi tenía vendida la 4090.
Me emiecé a oler todo antes de la presentación,y hostias.
Me olía ya los 2500€ para la 5090.A poner 1200€ lereles para el cambio (cuando vendía iba pensando en unos 2000-2100€).
Veía el consumo que ya es que se va de las manos.Hay Zotac de 600w.Casi nada .
Y uego ,que la mejora está bien, pero para la pasta que pones y lo que consume ,no lo veo.

Encantado de que "no me hayan hecho sacar la cartera está vez" , y por primera vez en bastante tiempo, me va a durar una gráfica más de dos años.Espero que como mínimo, 4 años.
Y coño, que no creo que me haga falta mucha más gráfica .Y a malas ,tiras de Lossless scaling por 7€ ,que vale que es peor ,pero te puede salvar alguna vez

A parte de que el salto gordo ll espero en las 6000 con un nuevo nodo más potente y más eficiente , ahora ,más caro seguro.
Pep ahí ya me valdrá con la 6080 de turno.No me hará falta ir a una 6090 para mejorar.
De hecho, visto lo visto, creo que no volveré más a una top 1 de Nvidia.
 
Última edición:
¿Que IA? Conseguir fotogramas falsos?, eso lo podían haber hecho hace 10 años, y hace 20, ó hace 40. No tenía ninguna dificultad. Lo que pasa es que antes les daba vergüenza, y ya no, 🤣

Es como el cine 3D, con las gafas, que hace 15 años lo vendían como la última novedad y ya existía en la antigua mesopotamia. Simplemente es marketing para venderte la burra vieja que camina cansada. Mira a AMD lo que le ha costado copiar a Nvidia, con FSR3, ó incluso con AFMF, y sin tener siquiera un nuevo hardware pensado para ello. Lo que pasa es que hace años les daba vergüenza hacer algo así.
La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.

Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.

Las dos únicas pegas que le veo es el imput lag (si decides tocar un botón en el momento que se está generando por IA ese fotogramas no va a responder el juego hasta que llegue al siguiente fotogramas renderizado por la gpu) y la poca implementación de esta tecnología en los videojuegos.

AMD no es tonta y también estaba trabajando en este sentido aunque siempre ha ido 1 o 2 generaciones por detrás.

La cosa es que no estoy justificando el precio desorbitado de las gráficas utilizando este tipo de tecnologías. Los precios desorbitados se justifican porque Nvidia tiene el monopolio en la gama alta.

Lo único bueno es que a las gamas más básicas de gpu esta tecnología les va a venir muy bien.

Lo que creo que hay de fondo en la crítica a este tipo de tecnologias es la frustración que implica pensar que gráficas de 500 euros, de repente, pueden escupir FPS sin ningún sentido y los poseedores de tarjetas de la gama más alta, ya no tiene esa sensación de tener un plus real sobre el resto de usuarios y a algunos les molesta. (no lo digo por ti porque no te conozco).

Estoy de acuerdo en la crítica porque muchas veces nos intentan colar basura, pero también creo en ser equilibrado y reconocer también las virtudes de estas tecnologías.
 
Última edición:
Al fiinal , con tanto frame generado por IA , en futuras generaciones , acabarán generando el juego entero :LOL: ( suena a broma, pero oye .... que podría pasar )

Parece ser que esta generación si vienes de una serie 40 no vale la pena el cambio, por que no me digan que una 4080 o 4090 no es capaz de mover sobradamente juegos actuales, y mas si estan mejorando el DLSS, que van a ir mejor a partir de ahora . .

Incluso me atrevo a decir que sería buen momento para pillar una 4090 si hay alguna super oferta , o de segunda mano, que mucha gente las cambiará por capricho .
 
Vamos a traer un poquito de humor (y es gracioso porque es todo cierto :) ).

e92u9aotl7de1.png


fghfgh.png


fghfghfgh.png
Muy buenas @Tomassio.

Hay un Hilo para Memes.
De invito a que los resubas allí también.

Saludos.
 
Parece ser que esta generación si vienes de una serie 40 no vale la pena el cambio, por que no me digan que una 4080 o 4090 no es capaz de mover sobradamente juegos actuales, y mas si estan mejorando el DLSS, que van a ir mejor a partir de ahora . .

Desde luego, tengo una 4080 y no hay juego al que no puedo jugar y más yo que la uso el 95% del tiempo en QHD y puntualmente en 4K. Con la mejora de DLSS que van a implementar me puedo olvidar de esta serie 5000, veremos para la 6000 que es lo que ofrecen.

Aún así sigo expectante de las reviews de esta serie 5000 para dejar de especular con filtraciones y también ver lo que AMD va a ofrecer con esa 9070.
 
En la gama "media" creo que esta vez la batalla es para AMD, por los precios ( supuestamente mas asequibles )

Y luego ya, el entusiasta que le sobre el dinero a por gama alta nvidia.

Que realmente con ambas vas a ir bien, la diferencia será de jugar a 140 o a 240 fps 😆
 
La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.

Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.

Las dos únicas pegas que le veo es el imput lag (si decides tocar un botón en el momento que se está generando por IA ese fotogramas no va a responder el juego hasta que llegue al siguiente fotogramas renderizado por la gpu) y la poca implementación de esta tecnología en los videojuegos.

AMD no es tonta y también estaba trabajando en este sentido aunque siempre ha ido 1 o 2 generaciones por detrás.

La cosa es que no estoy justificando el precio desorbitado de las gráficas utilizando este tipo de tecnologías. Los precios desorbitados se justifican porque Nvidia tiene el monopolio en la gama alta.

Lo único bueno es que a las gamas más básicas de gpu esta tecnología les va a venir muy bien.

Lo que creo que hay de fondo en la crítica a este tipo de tecnologias es la frustración que implica pensar que gráficas de 500 euros, de repente, pueden escupir FPS sin ningún sentido y los poseedores de tarjetas de la gama más alta, ya no tiene esa sensación de tener un plus real sobre el resto de usuarios y a algunos les molesta. (no lo digo por ti porque no te conozco).

Estoy de acuerdo en la crítica porque muchas veces nos intentan colar basura, pero también creo en ser equilibrado y reconocer también las virtudes de estas tecnologías.

Inteligencia artificial es un nuevo nombre rimbombante que se acaban de inventar los de marketing, y buenos dividendos que les está reportando el nombrecito, para algo mas antiguo que la tos, llamado de toda la vida Machine Learning. Es decir, que no tiene nada de nueva, existe desde hace mas de medio siglo.

Evidentemente, desde hace medio siglo lleva evolucionando y avanzando en rendimiento al ritmo que lo hacen los procesadores y esto significa que en los últimos años (10, 15, 20 años) el avance se está estancando igual que el de los procesadores. Ahora Nvidia usa sus procesadores gráficos para ello. ¿Cual es la novedad? Me temo que ninguna. Además dan mucho peor rendimiento que los procesadores basados en FPGAs que están diseñando todos los grandes del control y vigilancia de borregos, googletube, meta, alilecheschinoweibo, naver, etc, etc. ¿Cual es el problema de esos? Que no tienen un estandar de programación. Algunos pasan de ello y los que están en la asociación esperaban que gente como Intel tirase del carro, y está ahora bueno Intel como para abrir otro frente y dedicarle recursos.

Pero lo dicho, esto de la IA no tiene nada de nuevo y lo que se sabe ahora, ya se sabía antes. Lo que se hace ahora ya se podía haber hecho antes.

E ir bajando la precisión de los cálculos como está haciendo Nvidia, retrocediendo a niveles ridículos como los usados en los años '70 y '80 solo responde a algo muy sencillo, es la única forma que han encontrado para intentar seguir vendiéndote la burra de que hay avance:

En el espacio que antes hacia una operación de 32bit, ahora puede hace 2 operaciones cutres de 16bits. Bueno, está bien.
Luego Nvidia pensó... en el espacio de esas dos de 16bits, puedo hacer 4 operaciones de 8bits!!!. Bueno, claro, pero que operaciones, unas basurilla sin precisión. Vale, para algo servirán digo yo.
Y ahora acaba de inventar la rueda, ha descubierto que en ese espacio puede hacer 8 operaciones de 4 bits.
4 bits con coma flotante, FP4 (ya he pedido varias veces que alguien me explique como va esto y si gastan 1 ó 2 bits en definir donde está la coma). Una autentica basura que le permite a Nvidia decir que ha multiplicado el rendimiento por 8. Si claro, como si fuese lo mismo hacer una operación de 32bits que una de 4 bits. ;facepalm; . Nvidia está siguiendo la teoría del punto gordo, por la cual 3 lineas cualesquiera se cruzan siempre en un punto. Solo hay que ir haciendo el punto mas gordo hasta que las 3 estén dentro. Esa es la precisión, pero el punto ya es mas gordo que tu pantalla, XD.

Y estos (junto al sparsity) son los avances que lleva vendiéndonos Nvidia los últimos años. La verdad es que todo esto me viene demasiado grande y me gustaría de verdad que alguien lo explicase todo de forma mas o menos sencilla.

La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.

Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.
Si no me explicas mas de la IA no se si me gusta o no. Y no se que limitaciones corrige ni puedo entender como lo hace. Y de forma sencillita, porque si no no me aclaro. Porque en tu mensaje veo muchas palabras molonas pero que no me dicen nada. Optimiza, Inteligente, Corrige, Algoritmo, Mejora. Está claro que está muy bien, la palabra "Mejora" siempre es mejor que la palabra "empeora", pero me parece están viendo un discurso de marketing o un pintamonas en un museo hablándome del último cuadro que ha pintado donde no se ve nada. Vamos, que no entiendo nada. Espero que nos ayudes.

Si por interpolación te refieres a que después de tener un fotograma real, la tarjeta no te lo muestra, se lo guarda oculto, ,va al anterior, mete 3 fotogramas en medio y luego te muestra el fotograma viejo, después el 1falso, luego el 2falso, después el 3falso, y luego el fotograma real que te había ocultado.....

... que quieres que te diga, cuando el juego te vaya a 50 ó 60 falsos/seg vas a tener una latencia sana, sanisima. Y me da igual si le quieres llamar IA o no, como no quebrantes las leyes del tiempo y el espacio vas a tener una latencia de las buenas.

Yo espero que no lo hagan así (aunque no tengo ni idea), sino que sigan la trayectoria por vectores solo de los fotogramas antiguos para inventarse los siguientes sin tener que esperar a saber cual es el fotograma siguiente real, así ahorran algo de tiempo (latencia) aunque igualmente vas a tener 3 fotogramas inventados, que no es poca cosa.

Esto de seguir trayectorias por vectores en los fotogramas tampoco es nada nuevo, se hace desde que el mundo es mundo. Por poner un ejemplo, para ese programa libre, de hace 25 años llamado VirtualDub, tienes un plugin como DESHAKER para estabilizar la imagen y deformarla para que encaje bien con las anteriores y posteriores, donde puedes ver los vectores gráficamente, en vez de en una matriz.



¿Cual es la novedad? ¿cual es la inteligencia artificial? ¿en que se diferencia de lo que he mencionado? ¿cual es la optimización? ¿que es lo que hace el algoritmo inteligente? ¿que limitaciones corrige? Si no nos cuentas mas, pues nos quedamos igual, sin entender nada de estos milagros de la ciencia 100tifika de nvidia.
 
Última edición:
Luego a esperar que salgan juegos con todas esas tecnologias, que de entrada alguno habra, pero estandarizado por asi decirlo llevara rato, como paso con el raytracing o pasa con el path tracing que aun lo traen 3 juegos.
Ahora que los que hacen los port se van a esmerar aun menos, pensaran que vamos a generar fps de la nada :D:D te los lanzan aun mas verdes si cabe, con raster puro 20fps con dlss 4 fg x4 , pues 240fps, listo a gozar :ROFLMAO::ROFLMAO::oops::oops::rolleyes:
 
Luego a esperar que salgan juegos con todas esas tecnologias, que de entrada alguno habra, pero estandarizado por asi decirlo llevara rato, como paso con el raytracing o pasa con el path tracing que aun lo traen 3 juegos.
Ahora que los que hacen los port se van a esmerar aun menos, pensaran que vamos a generar fps de la nada :D:D te los lanzan aun mas verdes si cabe, con raster puro 20fps con dlss 4 fg x4 , pues 240fps, listo a gozar :ROFLMAO::ROFLMAO::oops::oops::rolleyes:
Es que el tema es ese.
Primero , aver cuántos juegos llevan DLSS 4.
Y segundo ,vamos a ver qué tal es la calidad de ese Fgx4 , porque peor que nativo o DLSS a secas ,va a ser ,ya sea por tema gráfico o por input lag.

Es una gen que se queda un poco a medias en mejoras.

@horquillas20
Si todo eso está muy bien ,y seguro que será así.
Pero a día de hoy ,tenemos que valorar las 5000 con lo que hay hoy.

Nvidia nos ha querido vender que una 5079 rinde como una 4090, y es una mentira enorme.
Ni si quiera una 5080 lo hace.

La realidad es que ,de primeras ,una va con 12 GB menos de VRAM ,y la otra con 8 GB menos.

De segundas ,para que una la iguale y otra la supere ,los juegos han de venir con DLSS 4.

Y de terceras , tienen que activar el FGx4 con la perdida gráfica que supone y el aumento de input lag.
Que puede estar bien y ser de gran resultado?No lo dudo.
Pero siempre va a ser peor , al menos a día de hoy, que poner un juego en nativo o con DLSS sin FG.
Y luego,va a depender d l juego que los artefactos del FG se notan más o menos

Yo es que esta gen ,la veo un quiero y no puedo.

Si al menos hubiesen aumentado más el raster , habría menos peros que ponerle a esta gen.
O que viniese DLSS 4 en todos los juegos .
O ya de últimas ,un precio más agresivo .

Pero con lo que hay ,yo las veo una gen un tanto decepcionante.
 
Esta gen es solo otro paso en esa direccion.

Los nuevos juegos vendran con dlss4 y mfg, pq el 90% de las graficas pc son nvidia. Yo a los que juego actuales, de 2020 hasta hoy, los actualizo a 3.8.10 con swapper. Ahora lo haremos con nvidia app a dlss4. Todos los AA o AAA suelen venir con dlss y fg. Incluso fsr siendo amd tarjetas residuales en el mercado.

Una 5070 en cuanto active mfg generará mas fps que una 4090 con fg, aunque falta ver esas demos en 15 dias. De momento esta generacion generará vectorialmente 4 frames por 1 de raster, fg solo 1 vectorial cada 2 raster. Veremos hasta donde lo llevan en siguientes series. Yo con fg lo del imput lag no lo noto. No se otras personas...
Te dejas un detalla.
Que casi todo viene con DLSS ,pero no con el último DLSS.
Y que no todos los juegos son AAA,ni todos los AA llevan DLSS.

Que va encaminado a lo que dices ,sí.
Pero hablar tan rotundamente de que va a venir todo con DLSS 4, cuando ni novedades actuales AAA o AA,no están viniendo con el último DLSS , es mucho aventúrate

Habrá que esperar y verlo

Callisto Protocol salió sin él
Dead Island 2
Starfield.
Halo Infinite
Re 4 Remake

Y si me pongo a buscar ,muchos más.
En algunos se implementa a posteriori, y en otros ,no.
Y en los aje se implementan a posteriori, no siempre llevan la última versión.
 
Última edición:
Aqui lo comenta Nate, lo que venia yo diciendo, que esto es como con las Rtx 2000, cuando salio el RT. Los desarrolladores no van a partirse el culo a meter todas estas tecnologias nuevas de Nvidia solo para la gente que tenga Nvidia 5000, quizas cuando esten ya las 6000 o 7000 ande mas estandarizado como pasa hoy dia con el Dlss y el RT. Tambien depende de que lo implementen el resto de marcas Intel-Amd aun que sean minoria...

 
Con swapper ya lo pones en dlss 3.8.10. Y ahora con nvidia app vas a hacer lo mismo que swapper.

Starfield usé el mod para dlss y fg y re4make tb. Los otros son muy antiguos.
Que es Swaper?
Te lo mete de manera externa el DLSS?
Y funciona igual?
 
Aqui lo comenta Nate, lo que venia yo diciendo, que esto es como con las Rtx 2000, cuando salio el RT. Los desarrolladores no van a partirse el culo a meter todas estas tecnologias nuevas de Nvidia solo para la gente que tenga Nvidia 5000, quizas cuando esten ya las 6000 o 7000 ande mas estandarizado como pasa hoy dia con el Dlss y el RT. Tambien depende de que lo implementen el resto de marcas Intel-Amd aun que sean minoria...

Si eso es lo que veo yo.
Que a futuro todo va por aquí, pero que con las primeras en teóricamente ,aprovechar todo esto, no va a ser todo tan tan tan bonito.

Es como cuando salió el RT iara las 2000, como bien dices.
Muy bonito pero ya me dirás cómo lo movían y cuántos juegos llevaba. RT y de qué nivel.
Ahora se está viendo más y tal, y tampoco es que sea muchas veces nada del otro mundo.

Va a sacar igual .Lo del neuronal rendreing y todo eso ,mi chulo y tal, y van a pasar generaciones hasta que se aproveche en condiciones.

El FGx4 estará guay, a un buen nivel .No lo dudo, pero bien bien ,en condiciones ,pues a lo oasa 2-3 gen más..
Y así con todo.
 
Personalmente hasta que no veamos pruebas no lo sabremos finalmente, pero yo no creo que una RTX 5070 rinda mas que una RTX 4090 ni por asomo, es mas, con los ultimos rumores no creo ni que una RTX 580 rinda mas que una RTX 4090. El que tenga esta ultima, si quiere y puede cambiar, la RTX 5090 seria su opcion para notar diferencia, ahora para ver si de verdad merece la pena habra que esperar a ver reviews, me da la impresion de que es una generacion de transicion mas que de evolucion, ahora, si sale a precio "contenido" a mi me gustaria cambiar, pero no estoy convencido al 100%.

Un saludo.
 
Los desarrolladores no suelen actualizar dlss. Swapper localiza el juego e implementa la ultima version. En 15 dias podras hacerlo con nvidia app.

Funciona con la ultima version o la que tu desees de dlss. Swapper la descarga de la web nvidia y actualiza el juego al dlss que tu quieras. Swapper te indica la que el juego está usando en ese momento y tu le indicas por cual quieres sustituirla.

Como a nvidia no le gusta que los demas metan el morro en sus cosas te van a poner su propio swapper en nvidia app
Bueno, si es así, puede mejorar bastante la cosa.
 
Personalmente hasta que no veamos pruebas no lo sabremos finalmente, pero yo no creo que una RTX 5070 rinda mas que una RTX 4090 ni por asomo, es mas, con los ultimos rumores no creo ni que una RTX 580 rinda mas que una RTX 4090. El que tenga esta ultima, si quiere y puede cambiar, la RTX 5090 seria su opcion para notar diferencia, ahora para ver si de verdad merece la pena habra que esperar a ver reviews, me da la impresion de que es una generacion de transicion mas que de evolucion, ahora, si sale a precio "contenido" a mi me gustaria cambiar, pero no estoy convencido al 100%.

Un saludo.
Es que ,partimos de la base que si una 5070 necesita de FGx4 para igualar ,supuestamente.,otra que va con un FGx2, pues ya no rinden igual.Obvio.
Porque ,por mucho que me cuenten, un x4 no es un X2 ni en calidad gráfica ,ni en latencias.
Queda ver ,si hay diferencia o no, si se nota o no.

Y claro,o también que ,cuando no hay nada de esto, pues que. La 5079 es básicamente la mitad de potente que la 4090.

Por lo que ,por mucho que se quiera ,no rinden igual.

Y mejor no entramos en la VRAM.

Una 5080 sí puede rendir más ,si como venimos diciendo, el FGx4 es muy bueno y no se nota diferencia con el x2.
Al menos sí es más potente en los juegos en los que se pueda activar ,porque aquí sí debería dar más GPS de manera notoria que la 4090 en el X2.
 
Última edición:
Claro. Se nota. Yo lo actualizo siempre a 3.8.10. A ver que tal con el reescalado de dlss4, que es para todas la rtx. Se comenta que rendimiento dlss4 va a dar la calidad de quality con dlss3.
Yo creo que no.
No dudo que sea muy bu no, pero por lo que ya han dicho algunos que han podido verlo un situ, es muy bueno, pero no a ese nivel.
Vamos ,que si tienes artefactos .También dicen que hay que fijarse bastante y tal.

A ver cuando salga todo.
 
Hay que verlo, pero yo creo que MFG se va a ventilar a toda la serie 4000 de calle. Creo que hasta 3 o 4 frames vect cada 1 raster. FG, que funciona muy bien, es solo 0.5x. 1 frame cada dos. Necesita el primero y el ultimo para intercalar 1.

Creo que calidad precio la mejor opcion será la 5070ti.
...
No son frame falsos, son frames calculados por otros metodos pero como consecuencia de unos movimientos de raton o mando. Y renderiza o genera esos en particular y no otros. El proceso determinará si a partir de unos movimientos generará 1 frame como fg o 4 como multi fg. Puede que con el tiempo a 240 fps solo 3 o 4 sean raster y el resto IA vectorial. Veremos. Pero si eso hace que una tarjeta del tamaño actual y con 600w de consumo max pueda poner en pantalla imagenes casi iguales a las que vemos por nuestros ojos, será un exito tecnologico. Eso sí, no haran falta ni actores para crear una pelicula.
Si, por el método de copiar el anterior, estirarlo un poco y sacártelo en pantalla después, con un montón de retraso. ¿Y el enemigo que aparece detrás de una esquina?, ¿por que método imaginario calcula al enemigo real?, ¿y si un objeto u enemigo cambia de dirección? ¿cuanto tardas en verlo? Bueno, si realmente se espera al siguiente fotograma, entonces no habría problema para calcular estos fakes como si fuesen frames B, pero y que tal la latencia.

Este "método" tiene varios problemillas:



- 1º - El primero es que los fakeframes son mas falsos que judas, pero las latencias no, esas son bien reales.

Si tu tienes 60 f/s reales, esto sería 1000ms/60f= 16,6ms cada fotograma, esa sería la latencia, que luego suele ser mas, por el retraso que hay mientras lo sacan por pantalla.

Si activas el fakeframe 4X, tendrás que esperar al siguiente fotograma, o sea generar dos = 33,3milisegundos + luego el tiempo que tardes en calcular los fotogramas falsos que aparecen en medio, mas el retraso por el retraso hasta sacarlo por pantalla, que te puedes ir a un total de 50ms, o mas, de latencia real. Aquí los fakeframes no arreglan nada.

Así que, con tus 60 f/s reales, pero activando los fakeframes 4X, verás en pantalla 240 f/s, por supuesto que los verás, pero la latencia que vas a tener es bastante peor que si funcionase a 60 f/s reales, de los de toda la vida.

Esos 240 f/s le darán mas suavidad a la reproducción, pero la pregunta es ¿realmente eso le interesa a alguien? Hay mucha gente a la que ni siquiera le importa jugar a 30 f/s estables y el cine va a 24 f/s. ¿Cuantos son capaces de apreciar la diferencia de fluidez de pasar de 60 f/s a 120 f/s? , ¿y de pasar de 120 f/s a 240 f/s?, ¿cuantos tienen un ojo que le permita ver esa diferencia? ¿cuantos tienen un monitor que le permita ver esa diferencia? Por que los que tengan un monitor de 60 f/s no van a ver nada, pero la latencia extra grande si que se la van a comer, XD




- 2º - A esa gente con ojo bionico, mejor monitor, y pasta para comprar una 5090 le doy mi enhorabuena, porque esta tecnología es para ellos.

Lo digo, porque igual hay algún pobre que había pensado: "Bueno, si con la gorda salen 240 fakes/s , yo me compro la cutre de 1/4 de cudas (25%), o de 1/6 de cudas (16,6%) y igual consigo 50 fakes/s",
pues siento tener que desilusionarle, pero ya se puede sacar esa bobada de la cabeza.

Es fácil entender que si con 240 fakes/s vas a tener peores latencias que con 60 fotogramas/s ,, porque realmente la tarjeta está funcionando a eso,
pues con 50 fakes/s , en realidad vas a tener peores latencias que con 12 fotogramas/s ,, porque realmente la tarjeta está funcionando a eso.
Y esas latencias no van a ser divertidas. Hablamos de latencias del orden de los 200 milisegundos:

1000ms / 12,5f/s = 80ms cada fotograma real. Lo cual ya es muy loco. Si te tienes que esperar al siguiente frame... 160ms + crear los fakes, etc... = 200ms. Demencial.



Resumiendo: The more you buy the more you save. Esto no es para los pobres a los que no les rinde bien la tarjeta, no es para que puedan llegar a 60 f/s. No. Para esos no sirve.
Esto solo es para los que ya sacan 70 ó 100 f/s reales y quieran activar los fakeframes 4X y así llegar a los 300 fakes/s en sus monitores de 300 f/s o mas, ¡¡que también tendrán derecho a vender monitores nuevos los señores fabricantes!!, digo yo. Indispensable un ojo biónico. Al final, los ff 4X son una herramienta de marketing mas que otra cosa.


_____________________________________


Para quien esto de los milisegundos le suene a chino y no sea capáz de hacerse una idea, aquí tiene a un par de vejestorios de 70 años, con sus manos atrofiadas y sus artrosis, el reuma, etc tocando escalas en la guitarra-bajo al ritmo de 30 notas/s ---> 1000ms/30notas = 33,3 ms les cuesta tocar cada nota. En los 200 ms de latencia de antes, mientras esperas a ver un nuevo fotograma real, estos te tocan 6 notas.



Edito-añado: El principal problema a la hora de conectar una guitarra al PC es la latencia, que tocas una cuerda y suena por los altavoces del PC un cuarto de hora después, algo similar a cuando una película lleva el audio desfasado y parecen teleñecos de un ventrílocuo (muchos reproductores como MPC-HC, para arreglarlo te permiten retrasar o avanzar el audio de 10ms en 10ms con las teclas + y -). Para intentar apañar el tema de las guitarras, mejorar un poco las latencias de las tarjetas de sonido malas, existen controladores como los ASIO4ALL.

Lo mismo se puede decir de videojuegos como RockSmith, que los problemas de latencias hacen que falles, que no toques cuando debes y por eso el juego tiene una opción para retrasar el punto donde entiende que debe detectar la nota y así darlo por bueno.

Y en ninguno de estos casos musicales estamos hablando de latencias tan locas como los 200 ms mencionados donde aprietas el botón de saltar, y te puedes echar un trago a la salud del chino Juan antes de ver al muñeco saltar en la pantalla. Efecto retardado. Va a ser la risión.
 
Última edición:
Arriba