La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.
Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.
Las dos únicas pegas que le veo es el imput lag (si decides tocar un botón en el momento que se está generando por IA ese fotogramas no va a responder el juego hasta que llegue al siguiente fotogramas renderizado por la gpu) y la poca implementación de esta tecnología en los videojuegos.
AMD no es tonta y también estaba trabajando en este sentido aunque siempre ha ido 1 o 2 generaciones por detrás.
La cosa es que no estoy justificando el precio desorbitado de las gráficas utilizando este tipo de tecnologías. Los precios desorbitados se justifican porque Nvidia tiene el monopolio en la gama alta.
Lo único bueno es que a las gamas más básicas de gpu esta tecnología les va a venir muy bien.
Lo que creo que hay de fondo en la crítica a este tipo de tecnologias es la frustración que implica pensar que gráficas de 500 euros, de repente, pueden escupir FPS sin ningún sentido y los poseedores de tarjetas de la gama más alta, ya no tiene esa sensación de tener un plus real sobre el resto de usuarios y a algunos les molesta. (no lo digo por ti porque no te conozco).
Estoy de acuerdo en la crítica porque muchas veces nos intentan colar basura, pero también creo en ser equilibrado y reconocer también las virtudes de estas tecnologías.
Inteligencia artificial es un nuevo nombre rimbombante que se acaban de inventar los de marketing, y buenos dividendos que les está reportando el nombrecito, para algo mas antiguo que la tos, llamado de toda la vida Machine Learning. Es decir, que no tiene nada de nueva, existe desde hace mas de medio siglo.
Evidentemente, desde hace medio siglo lleva evolucionando y avanzando en rendimiento al ritmo que lo hacen los procesadores y esto significa que en los últimos años (10, 15, 20 años) el avance se está estancando igual que el de los procesadores. Ahora Nvidia usa sus procesadores gráficos para ello. ¿Cual es la novedad? Me temo que ninguna. Además dan mucho peor rendimiento que los procesadores basados en FPGAs que están diseñando todos los grandes del control y vigilancia de borregos, googletube, meta, alilecheschinoweibo, naver, etc, etc. ¿Cual es el problema de esos? Que no tienen un estandar de programación. Algunos pasan de ello y los que están en la asociación esperaban que gente como Intel tirase del carro, y está ahora bueno Intel como para abrir otro frente y dedicarle recursos.
Pero lo dicho, esto de la IA no tiene nada de nuevo y lo que se sabe ahora, ya se sabía antes. Lo que se hace ahora ya se podía haber hecho antes.
E ir bajando la precisión de los cálculos como está haciendo Nvidia, retrocediendo a niveles ridículos como los usados en los años '70 y '80 solo responde a algo muy sencillo, es la única forma que han encontrado para intentar seguir vendiéndote la burra de que hay avance:
En el espacio que antes hacia una operación de 32bit, ahora puede hace 2 operaciones cutres de 16bits. Bueno, está bien.
Luego Nvidia pensó... en el espacio de esas dos de 16bits, puedo hacer 4 operaciones de 8bits!!!. Bueno, claro, pero que operaciones, unas basurilla sin precisión. Vale, para algo servirán digo yo.
Y ahora acaba de inventar la rueda, ha descubierto que en ese espacio puede hacer 8 operaciones de 4 bits.
4 bits con coma flotante, FP4 (ya he pedido varias veces que alguien me explique como va esto y si gastan 1 ó 2 bits en definir donde está la coma). Una autentica basura que le permite a Nvidia decir que ha multiplicado el rendimiento por 8. Si claro, como si fuese lo mismo hacer una operación de 32bits que una de 4 bits. ;facepalm; . Nvidia está siguiendo la teoría del punto gordo, por la cual 3 lineas cualesquiera se cruzan siempre en un punto. Solo hay que ir haciendo el punto mas gordo hasta que las 3 estén dentro. Esa es la precisión, pero el punto ya es mas gordo que tu pantalla, XD.
Y estos (junto al sparsity) son los avances que lleva vendiéndonos Nvidia los últimos años. La verdad es que todo esto me viene demasiado grande y me gustaría de verdad que alguien lo explicase todo de forma mas o menos sencilla.
La generación de fotogramas sin IA (por interpolarización) es claramente deficiente, tanto en movimientos rápidos como en calidad visual y en videojuegos genera un ghosting de la leche.
Con la IA, guste o no guste, se corrige las limitaciones de la interpolarización porque tienes un algoritmo inteligente que mejora y optimiza el proceso.
Si no me explicas mas de la IA no se si me gusta o no. Y no se que limitaciones corrige ni puedo entender como lo hace. Y de forma sencillita, porque si no no me aclaro. Porque en tu mensaje veo muchas palabras molonas pero que no me dicen nada. Optimiza, Inteligente, Corrige, Algoritmo, Mejora. Está claro que está muy bien, la palabra "Mejora" siempre es mejor que la palabra "empeora", pero me parece están viendo un discurso de marketing o un pintamonas en un museo hablándome del último cuadro que ha pintado donde no se ve nada. Vamos, que no entiendo nada. Espero que nos ayudes.
Si por interpolación te refieres a que después de tener un fotograma real, la tarjeta no te lo muestra, se lo guarda oculto, ,va al anterior, mete 3 fotogramas en medio y luego te muestra el fotograma viejo, después el 1falso, luego el 2falso, después el 3falso, y luego el fotograma real que te había ocultado.....
... que quieres que te diga, cuando el juego te vaya a 50 ó 60 falsos/seg vas a tener una latencia sana, sanisima. Y me da igual si le quieres llamar IA o no, como no quebrantes las leyes del tiempo y el espacio vas a tener una latencia de las buenas.
Yo espero que no lo hagan así (aunque no tengo ni idea), sino que sigan la trayectoria por vectores solo de los fotogramas antiguos para inventarse los siguientes sin tener que esperar a saber cual es el fotograma siguiente real, así ahorran algo de tiempo (latencia) aunque igualmente vas a tener 3 fotogramas inventados, que no es poca cosa.
Esto de seguir trayectorias por vectores en los fotogramas tampoco es nada nuevo, se hace desde que el mundo es mundo. Por poner un ejemplo, para ese programa libre, de hace 25 años llamado VirtualDub, tienes un plugin como DESHAKER para estabilizar la imagen y deformarla para que encaje bien con las anteriores y posteriores, donde puedes ver los vectores gráficamente, en vez de en una matriz.
¿Cual es la novedad? ¿cual es la inteligencia artificial? ¿en que se diferencia de lo que he mencionado? ¿cual es la optimización? ¿que es lo que hace el algoritmo inteligente? ¿que limitaciones corrige? Si no nos cuentas mas, pues nos quedamos igual, sin entender nada de estos milagros de la ciencia 100tifika de nvidia.