• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

GTX 660/GTX 660 ti. ¿Realmente 2gb de vram usables?.¿Real o mito?

Baal

Señor del sistema Goa'uld
Registrado
12 Jun 2013
Mensajes
1.229
Puntos
83
Hace ya un tiempo, algunas webs de renombre y algunos usuarios se hicieron eco de un caso que ha pasado con tarjetas de buses asimétricos y 2gb de vram. Por el momento yo sólo conozco 3 casos recientes y pertenecen a nvidia. Los modelos son gtx 660, gtx 660 ti y la antigua gtx 550 ti.

El supuesto problema es que un bus de 192bits sólo puede llevar o 1.5gb o 3gb, pero no 2gb, ya que no es múltiplo de 2. las tarjetas en sí, sí que disponen de 2gb como tal. Lo que ocurre, es que los últimos 512mb lo hacen con un ancho de banda de 48Gb/S y no a 144Gb/s de la principal. Todo esto posiblemente se hizo por políticas de marketing, ya que si los modelos de amd llevaban 2gb desde la hd 7850, mucha gente podría llegar a entender que las nvidia son mucho menos potentes. En algún roapmap temprano se veía que dichos modelos iban a llevar 1.5gb. Es más, la versión gtx 660 oem de pcs prefabricados lleva 1.5gb de vram, no 2. Esto son suposiciones, ya que nvidia tendrá sus motivos reales.

Lo que puede ocurrir al tener esos 512mb lentos, es que determinadas configuraciones muy exigentes, con altas resoluciones y filtros tengan que acceder a esos memoria más lenta. Si esto llegase a pasar, notaríamos mal rendimiento, con micro parones, bajadas de fps, etc.... Supuestamente, hasta ahora para un usuario normal, no debería de tener problemas con dichas tarjetas, porque no llegaríamos a saturar más de 1.5gb por falta de potencia. Por lo tanto a no ser que montemos un sli o montemos multimonitor, etc... no debería de dar problemas.

Ahora tengo en mi poder una gtx 660 ti de asus. Fue un modelo no buscado, ya que era la que más rendimiento me daba por lo que tenía previsto pagar(segunda mano). Bueno, pues el caso, es que 3 juegos recientes me han dado problemas con dicha tarjeta. Os pongo los vídeos:





El primero es el battlefield4. Poniendo las texturas en ultra, me tironea el juego, incluso en la campaña. Con rebajarlas a alto, no tengo muchas pegas. Eso sí, este caso podría ser muy discutible, porque es un juego que suele dar muchos problemas.
El segundo es el skyrim con filtros y mods. Cuando pasa delos 1.5gb se ve el mal rendimiento con parones. Una vez que ha metido datos en los 512mb restantes, no suele dar muchos problemas hasta que vacia y vuelve a meter más datos. En el único caso que he podido meter de todo y sin problemas ha sido con la hd 7950 con los 3gb.
El tercero es el thief nuevo. Se lleva diciendo tiempo, que es un juego que se bebe la vram como si fuera agua. Al parecer los desarrolladores han dicho que mejorarán dichas cosas con futuros parches. Un despropósito para lo que muestra realmente el juego. El primer vídeo está al máximo y se ve que cuando pasa los 1.5gb hay tirones molestos. Luego ya va bien.
El último vídeo es con el SSAA quitado y con texturas en medio. Aquí ya no tironea.

Todo esto es bastante lioso, porque hay gente con menos vram que dichos juegos les va bien, etc.... No hay una ciencia exacta. Se dice que al tener memoria disponible, es más sensible a meter datos algunos juegos en la zona peligrosa y de ahí el mal rendimiento. Cosa que con tarjetas de 1.5gb no han experimentado dichos problemas. 2 juegos son recientes y uno va plagado de mods chuparecursos. En otros juegos, rara vez pasas de 1.5gb de vram visibles aunque pongas todo al máximo. Podríamos sospechar también, que btf4 y thief no han sido optmizados vía drivers para estas tarjetas "especiales" todavía.

Por lo que he experimentado, no me ha gustado ver esto. La tarjeta rinde algo más que una r9 270x, para que por A o por B se pueda sufrir de estas cosas.
Con los modelos de 3gb de dichos modelos no se padecen estos problemas. Claro que eran bastante más caros y con menos disponibilidad. Ya en las nuevas gtx 700, de momento todas tienen su vram totalmente disponible a la misma velocidad. Se ve que han decidido no volver a hacer lo mismo.

¿Qué pensáis?. ¿Fail de nvidia o mito?.
 
Pues es una situación muy curiosa y con mucho sentido todo lo que dices, que no digo que sea cierto... pero sentido tiene jejeje.
 
Esto ya lo lei hace tiempo, que en el primer caso que se dio fue en las 550ti. Pero nunca entendi la explicacion. Debe ser que se me escapaban los tecnicismos en ingles.

Porque el bus de 192 bits solo puede llevar 1.5 o 3 y no 2 gbs¿?

Si no recuerdo mal, yo lei algo de que la 660 usaba 3 lineas con 6 chips de memoria. Lo que si que haria con el 1.5 gb de ram. Y que los otros dos chips de memoria compartian una de esas lineas o buses. Pero el resto de la explicacion no la veia.

Alguien me ilumina¿?
 
Última edición por un moderador:
Yo creo que es por lo de las lineas o buses. Aunq no estoy del todo seguro...

Creo que graficas q tienen 192 bits; tienen 3 lineas o buses... Y que cada bus lleva dos chips de memoria 256x2= 512 mbs x 3 lineas = 1.5 gbs de los que hablaba el compañero.

Como las 660 no tiene 6 chips, si no que tiene 8 hay 2 que tienen que compartir uno de los buses con otros dos chips. Que si no me equivoco son los que estan en la parte trasera del pcb.

Imagino que la grafica cuando sobrepasa el 1.5 gb de vram que tiene en la parte delantera del pcb, trata de acceder a la que tiene en la parte trasera y al compartir el bus, se debe de producir los tirones que habla isma.

Creo que es algo asi. Siento explicarme asi, pero creo que es mas o menos eso.
 
El problema es que desconocemos el tamaño del bus de direcciones... que es el que puede limitar en este sentido. También desconocemos el tamaño asignado a un bloque de memoria... a saber.
 
Yo lo que digo es lo siguiente:

1.- Con mi experiencia más o menos breve con las GTX 660, el único caso donde he visto problemas con la VRAM ha sido con Tomb Raider usando configuración máxima y SSAA, pero también decir que los parones no eran como los tuyos de los vídeos, eran molestos, pero ni de lejos tan largos (lo cual va más en la dirección de lo esperable, llenar y vaciar esta memoria "lenta" no debería llevar tanto).

De hecho este caso es especial, con varios parches desde entonces ahora Tomb Raider consume mucha menos VRAM, y tenía un problema "pasmoso", que es cuando no "cabía" en la VRAM todos los datos, se formaba un auténtico "pozo" de memoria en la VRAM que podía hacer que en efecto bajara el "consumo" de ésta, y ahora me estoy refiriendo a gráficas con 2 GB simétricos como las GTX 670, esto es, que se pasaba de consumir, por ejemplo en máximo y 2xSSAA, un total de 1,8 GB (cuidado, no es consumo real, lo digo por si acaso), a consumir en máximo y 4xSSAA "sólo" 1,5 GB, pero con un rendimiento pésimo.

Tras darle muchas vueltas al tema llegué a la conclusión de que TressFX pasaba totalmente a ser gestionado desde la memoria principal y no la VRAM en el momento en que la gráfica se quedaba sin VRAM, y de ahí que el rendimiento se hundiera más, si cabe, cuando había primeros planos de Lara y su pelo. Esto con la GTX 660 se veía más claro porque pasaba ya con 2SSAA, pero vamos... de todas formas así no iba a ser muy jugable, aún tuviera 3 GB de VRAM simétricas la GTX 660.

2.- Yo he juegado a Battlefield 4 con todo en ultra y 4xMSAA en una GTX 465 con 1GB, y sí, aunque va como la mierda (poco más de 20 fps de media), no pega parones, mucho menos esos superparones que se te ven a ti jugando a BF4 en MP durante tiempos de incluso segundos.

3.- Skyrim es un tema aparte, sin lista de mods usados para igualar el tema, no son comparables las experiencias. Yo he usado Skyrim usando teóricamente (ya sabemos que la cifra miente, pero bueno) los 2GB al máximo, y con una aparente "relocalización" de datos en memoria dado que solía oscilar arriba y abajo una vez llegaba al máximo, con una GTX 670. E iba fluido fluido. Aunque claro, era sin MODs (pero sí con SSAA de transparencias, otras mejoras en el panel del driver, mejoras en el ini para cargar más detalles con grid2load, etc).

4.- Thief no lo he usado, pero si te fijas los tirones, exageradísimos, no pasan sólo cuando se "llena" la VRAM, de hecho pasan al principio del vídeo casi pero no cuando más VRAM usan, ergo no puede ser la VRAM la responsable (va fluido en varios puntos donde se superan los 1,7GB, va a saltos enormes, cuando roza los 1,6GB ¿?¿?).


En general, es un mito esto que se dice, yo ya te digo que jugando a muchos juegos en su momento, la GTX 660 se portaba como una campeona, creo que tú también tenías problemas con el BF3 al probar una GTX 660 (¿puede ser?), pero yo jugando con ésta en MP y con MSAA más todo en ultra no ví ni siquiera el mal llamado por muchos "microstuttering" (que en realidad la mayoría de casos es stuttering normal y moliente).

Lo que yo veo que tienes es un problema distinto, son parones demasiado largos para ser por VRAM, ni siquiera con Tomb Raider y el uso de SSAA los parones eran así de fuertes, en casos donde yo he visto agotada la VRAM de la GTX 660 era más parecido a una pérdida de potencia muy fuerte, pero sin implicar parones de hasta segundos como es tu caso. Tampoco la GTX 465 y con juegos modernos ha mostrado parones bestiales, de hecho tiene un rendimiento bastante estable.

Mira, con Tomb y máximo en 1080p con la GTX 465, el rendimiento se hunde, pero no pega parones secos como ésos (demasiado tiempo), sino que la tasa de fps baja escandalosamente, posiblemente por la carencia total de VRAM (para tener activo TressFX más calidad gráfica extra, el GB se agota sí o sí), rondando los 13-10 fps dependiendo de si se usa SSAA o no. Baja de unos 20 fps con calidad en ultra (básicamente, sin TressFX), lo cual muestra un efecto casi directo de quedarse sin VRAM en este caso, dado el consumo muy elevado de VRAM que tiene el efecto (unos 400 MB como mínimo, hasta 700 MB con SSAA, ya que el uso de SSAA lo "infla" aún más).

Pero con BF4, Crysis 3, etc, en los modos más bestias aún yendo muy despacio (<15 fps) no pega esos parones. Como tampoco los vi con la GX 660, yo creo que tiene que haber alguna otra razón distinta, algún tipo de incompatibilidad o mala interacción con el setup determinado de pruebas, tanto a nivel hard como soft.

PD: Como nota, la VRAM "lenta" lee y escribe datos por un único controlador de 64 bits, a una velocidad de 64GB/s. Suficiente para leer o escribir en ésta, en toda su extensión, un total de 128 veces por segundo. Si se trata de acceder a áreas más limitadas, muchas más veces por segundo. Esos parones no pueden estar justificados por "VRAM lenta", aunque se hiciera un copiado de memoria entre VRAM lenta y rápida se entendería. Son parones extremadamente parecidos a los de acceso a un disco provocando un "stall" en el juego hasta que se cargan datos. Y acceder a discos está a varios órdenes de magnitud de distancia en tiempos de lo que es la velocidad de la VRAM. Incluso leyendo directamente de memoria principal los datos (en mi caso con la GTX 465, a un ratio de 8 GB/s, 16 bidireccionalmente), además a cantidades teóricamente "masivas" de datos, no he visto esos parones. Tienen que ser por otra razón.

El problema es que desconocemos el tamaño del bus de direcciones... que es el que puede limitar en este sentido. También desconocemos el tamaño asignado a un bloque de memoria... a saber.


Si lo conocemos, se saben cuántos chips de memoria y cómo van conectados a un GK106:

8 chips de memoriam 6 "delante" y 2 "detrás", usando el PCB de referencia venido directamente desde la GTX 670 en su organización (256 bits).

Viendo el PCB, vemos que:

1.- Dejan libres 2 de los lugares donde en una GTX 670 irían 2 chips de memoria, delante (2 chips de 32 bits, conectados a un controlador de 64 bits, ergo ahí tenemos los 192 bits de bus de la GTX 660, 256 - 64 bits).
2.- Los 2 chips traseros van justo debajo de 2 chips delanteros, esto es, que son chips GDDR5 y configurados en modo 16 bits para así poder "colgar" de un único controlador de 64 bits, el asociado a los chips delanteros, 4 chips en vez de 2 (4x16 bits = 64 bits, los cuatro chips mencionados están en modo 16 bits, mientras que los otros 4 chips delanteros y en parejas de dos chips por controlador, están en modo de 32 bits).


La topología de la VRAM de la GTX 660 es tan simple como una zona donde los tres controladores de 64 bits trabajan entrelazadamente, hasta los primeros 1,5GB y de forma linear, y a partir de ahí sólo el controlador de 64 bits con los 4 chips en modo 16 bits tiene un rango de direcciones de memoria extra donde los otros dos controladores ya no tienen nada. Así que es sin ninguna duda 1,5 GB a 192 bits y plena velocidad, más 512 MB extra en 64 bits y a 1/3 de velocidad. Todo además de forma linear, cualquier otra ordenación de la memoria sería absurda y antinatural.
 
Última edición por un moderador:
Creo que estas confundiendo bus de datos con bus de direcciones. Estoy un poco liado ahora... luego lo miro a fondo, pero me ha dado esa impresión.
 
Creo que estas confundiendo bus de datos con bus de direcciones. Estoy un poco liado ahora... luego lo miro a fondo, pero me ha dado esa impresión.

Es posible, pero no debería haber ningún problema con el "bus de direcciones", al fin y al cabo no existen problemas con los modelos de GTX 660 con 3GB o con los modelos de GTX 670 o superiores con 4 GB (uso de 1 GB de VRAM por controlador de 64 bits). No hay que olvidar que la gestión de VRAM por la gpu es mucho más simple que la que pueda tener que hacer una cpu con la principal, aquí no debería haber varias capas de abstracción y se podría hacer de forma mucho más directa y lineal. El tamaño de bloque mínimo tampoco debería influir.

Además del hecho de que parece que se han usado sin problemas configuraciones con más VRAM por controlador en otros modelos. Yo creo que puede haber un perjuicio en el rendimiento, pero mucho menor que lo visto en los vídeos de Ismarub, donde creo que hay otro problema latente (y desconocido, por no saber qué puede ser exactamente lo que lo provoca, pero en principio la VRAM no).

Más que el direccionamiento físico, habría que saber qué hace el driver exactamente con la gestión de la gpu y de la RAM de ésta, que es lo que realmente tira de las cuerdas en este caso (más o menos infiero el comportamiento general, pero no entiendo cómo se puede llegar al problema mostrado sólo por el tema de la VRAM asimétrica, además de que este problema no se parece a la bajada de rendimiento que sí he visto yo con sobrepasar el dichoso 1,5 GB de VRAM con la GTX 660, este problema es mayor y parece que distinto).
 
Yo tube la 660 de gigabyte y nunca tube esos problemas, ahora mismo la tiene un compañero mio con un 6300 y no nota esos bajones tan molestos con el bf4.
Eso si, tubo q cambiar a windows 8 para evitar micro parones, que S.O usas?

mensaje tapagalleteado!
 
Mirando el caso de que algunos concordáis que esos tirones no son muy normales, he deciddo trastear algo más para intentar solucionar o paliar esas cosas. En tal caso, los tirones por la falta de ancho de banda, no deberían ser tan severos.

He mirado que los drivers tuvieran activado máximo rendimiento y así estaba. Luego mirando la página de asus, había una bios nueva para optimizar rendimiento. Se la he puesto y de momento esto ha pasado:



En esos 2 juegos, ya no hay esos tirones molestos. Aunque el btf4 no siempre va 100% fino. Lo que hace la bios a simple vista, es poner más clocks y estabilizar el boost para que no bailen frecuencias. En el thief no he tocado nada más. En el battefield4, desde el parche de 800 megas no lo había jugado. Hay que decir que el btf4 en breves lo desinstalalé porque no me convence mucho, con los fallos que tiene. Para el compañero que pregunta es win7 64 bits.

El skyrim lo estuve probando unr rato e igual. La solución es quitar filtros o desactivar algún mod chuparecursos. Me queda mirar las rams o el overlock, porque tengo metido algo de blck(por si diera inestabilidades).
 
Mirando el caso de que algunos concordáis que esos tirones no son muy normales, he deciddo trastear algo más para intentar solucionar o paliar esas cosas. En tal caso, los tirones por la falta de ancho de banda, no deberían ser tan severos.

He mirado que los drivers tuvieran activado máximo rendimiento y así estaba. Luego mirando la página de asus, había una bios nueva para optimizar rendimiento. Se la he puesto y de momento esto ha pasado:



En esos 2 juegos, ya no hay esos tirones molestos. Aunque el btf4 no siempre va 100% fino. Lo que hace la bios a simple vista, es poner más clocks y estabilizar el boost para que no bailen frecuencias. En el thief no he tocado nada más. En el battefield4, desde el parche de 800 megas no lo había jugado. Hay que decir que el btf4 en breves lo desinstalalé porque no me convence mucho, con los fallos que tiene. Para el compañero que pregunta es win7 64 bits.

El skyrim lo estuve probando unr rato e igual. La solución es quitar filtros o desactivar algún mod chuparecursos. Me queda mirar las rams o el overlock, porque tengo metido algo de blck(por si diera inestabilidades).

¿Ves? ya te dije que eran parones demasiado bestias para ser sólo por el tema de la VRAM asimétrica.

De todas formas, no sé qué leches habrán hecho en la BIOS original los de ASUS para que pase esto, lo normal en todas las kepler que he visto ahora (y maxwell, de hecho), es que el boost entre y se estabilice, si no hay problemas de máximos o superar el TDP (lo cual pasa con cierta facilidad con la 750 Ti) se quede clavada la frecuencia ahí, y cuando baja, lo hace bastante progresivamente, en los típicos saltos de frecuencias de 13 MHz en 13, con ajustes de voltaje, pero que vamos, incluso con ese baile de cifras, no se nota (normalmente, por lo menos yo no he visto nada raro, y mira que la 750 Ti a veces está ajustando de forma "compulsiva" sus frecuencias) en la acción del juego.

Así que a saber qué carajo estaba haciendo ASUS con esa BIOS, pero ni una PNY GTX 670, ni la Asus directCUII 670, ni la Gigabyte GTX 660, ni la Gigabyte GTX 770, ni la MSI 750Ti me han hecho nada realmente "raro" con el boost y frecuencias. Sí, la PNY tenía facilidad para bajar frecuencias debido a que alcanzaba temperaturas altas (diseño de referencia), y sí, la 750 Ti por el tema de su TDP contenido, ídem, pero vamos... que ambas iban perfectamente aunque no clavaran frecuencias.
 
¿Ves? ya te dije que eran parones demasiado bestias para ser sólo por el tema de la VRAM asimétrica.

De todas formas, no sé qué leches habrán hecho en la BIOS original los de ASUS para que pase esto, lo normal en todas las kepler que he visto ahora (y maxwell, de hecho), es que el boost entre y se estabilice, si no hay problemas de máximos o superar el TDP (lo cual pasa con cierta facilidad con la 750 Ti) se quede clavada la frecuencia ahí, y cuando baja, lo hace bastante progresivamente, en los típicos saltos de frecuencias de 13 MHz en 13, con ajustes de voltaje, pero que vamos, incluso con ese baile de cifras, no se nota (normalmente, por lo menos yo no he visto nada raro, y mira que la 750 Ti a veces está ajustando de forma "compulsiva" sus frecuencias) en la acción del juego.

Así que a saber qué carajo estaba haciendo ASUS con esa BIOS, pero ni una PNY GTX 670, ni la Asus directCUII 670, ni la Gigabyte GTX 660, ni la Gigabyte GTX 770, ni la MSI 750Ti me han hecho nada realmente "raro" con el boost y frecuencias. Sí, la PNY tenía facilidad para bajar frecuencias debido a que alcanzaba temperaturas altas (diseño de referencia), y sí, la 750 Ti por el tema de su TDP contenido, ídem, pero vamos... que ambas iban perfectamente aunque no clavaran frecuencias.

Esta tarjeta pertenece a los packs que venían con el borderlands 2. Es decir, que pertenece a su salida, allá por agosto del 2012. Luego a principios de septiembre, lanzó esa nueva bios. Es decir muy poco después.

Lo que ganas supuestamente es mejor rendimiento en boost. En mi caso, antes bailaban mucho las frecuencias, incluso al 99% de carga. Por ejemplo con oc, iba desde 1200mhz a 1280mhz. Ahora puedo subirle el powerlimit a +23 y se suele mantener casi siempre a 1293mhz. De serie va ahora a 1176mhz estables. Incluso en sintéticos he ganado un 5% de rendimiento.

Igual es que la primera partida de estas tarjetas de asus no iban finas con el boost. Es como si tuviera un perfil de ahorro de energía muy agresivo antes de la nueva bios. También decir que la procedencia de la tarjeta es un poco misterio. Viene de una tienda, no de un particular

Ahora incluso en skyrim, si bien hay mal rendimiento con microlagazos en algunas ocasiones, no hay congelaciones de varios segundos. A este juego tendré que encontrarle el punto, porque si no es con algo más potente y con más vram, no se le puede meter cosas sin ton, ni son.
 
Ya, de todas formas aunque la BIOS evite la entrada muy seguida del boost hacia abajo (como si alcanzara el máximo de TDP o bajara por temps muy rápido), al actualizarla, aún así creo que tiene que haber algo más en esa BIOS original. Porque vamos, no es normal esos parones por muchos reajustes por segundo que tuviea el boost, ahí había alguna chapuza extraña en la BIOS por parte de ASUS, es la única explicación que le encuentro (la PNY GTX 670 no paraba de "bailotear" pero no le pasaba esto, las nuevas GTX 750 Ti bailan seguido con juegos exigentes pero tampoco).

En realidad el boost, por muy mitificado que esté el tema como algo "negativo" para la fluidez, no tiene porqué afectar en absoluto a ésta. Y mi experiencia dice que no afecta. De hecho probando la GTX 750 Ti me quedé un poco a cuadros al ver que parecía seguir siendo fluida con tasas de fps en Far Cry 3, rondando los 30 fps o ligeramente por debajo, que necesitaba bajar de 25 fps para que se notara algo de stuttering. Tanto es así que hice una comparación de los timeframes contra otras gráficas para ver cómo era la entrega de frames, su regularidad frente a otras tarjetas. Y lo hacía de coña de bien en comparación. Lo cual era muy llamativo para una tarjeta de gama baja, con poco ancho de banda, y estrenando tanto arquitectura como drivers nuevos.

Y te aseguro que la gráfica baila con el boost con juegos así pero que mucho, está ajustando continuamente las frecuencias. Así que debe ser algún tema de gestión energética o algo... chapucero por parte de la BIOS de ASUS, el boost funcionando normal, no afecta en absoluto por mucho que entre (en sus valores normales, claro, no si se ve forzado a bajar a 400 MHz o una burrada así).
 
Que latencias medias tenias en el frametime a 30 fps con la 750ti en el far cry 3?... 30ms de media mas o menos? ... porque si es asi fluido lo que es fluido en mi opinion no lo es para nada.

Ni siquiera 16ms lo considero fluido cuando te acostumbras a jugar ente 3 y 10 ms de media. Se nota una barbaridad todo lo que sea por encima de 25 ms, bueno almenos para mi... sere muy tiquis miquis...
 
Que latencias medias tenias en el frametime a 30 fps con la 750ti en el far cry 3?... 30ms de media mas o menos? ... porque si es asi fluido lo que es fluido en mi opinion no lo es para nada.

Ni siquiera 16ms lo considero fluido cuando te acostumbras a jugar ente 3 y 10 ms de media. Se nota una barbaridad todo lo que sea por encima de 25 ms, bueno almenos para mi... sere muy tiquis miquis...

Evidentemente, si iba a 30 fps, la latencia MEDIA sería de 33 ms.... :roto2nuse:, es que no habría ni qué decirlo.

A pesar de los mitos, a la gente SI, y es importante el condicional, SI se les ofrece una entrega en frametimes PERFECTA, donde además las temporizaciones tanto de cada frame, en el motor interno del juego, así como en el tiempo necesario para ser procesado el frame por la gráfica, se mantiene constantes, a TODO QUISQUI eso le parecerá fluido.

Como nos lo parece también cine a unos pxxxx 24 fps sin quejarnos ni un poco. Pero porque las grabaciones de video tienen "timings", "latencias" o como quiera llamárselas, perfectas, constantes y sin altibajos. Lo que la gente nota, a 30 fps, a 60 fps, incluso a 120 fps como "saltitos" son frames lentos o una diferencia de tiempo importante (no sólo en envío al monitor, sino de temporizaciones dentro del juego entre frames) entre frames. Y es eso lo que no tenía la GTX 750 Ti. O apenas para lo que yo esperaba:

2ni66bc.jpg


GTX 465, GTX 770 y GTX 750 Ti, de arriba a abajo. En calidad ultra con 4xMSAA y 1080p.

La 465 va de pena, pero teniendo en cuenta potencia y cantidad de VRAM, sorprendentemente estable a pesar de todo, y con estas calidades, la GTX 770 va claramente mejor que ninguna de las opciones, pero es lo que tenía que ser, en realidad su variación interframe es bastante baja lo que pasa es que en la gráfica se ve "amplificada" porque el eje de las Y está relativamente truncado al haber poco rango cubierto, va "casi" perfecta, desde luego parece suave ya que se mantiene siempre por encima de 30 fps (excepto en la entrada de algún script con carga de datos, como se nota por algún pico suelto en la secuencia), y en fps medios está cerca de 60, pero evidentemente tiene más que suficiente rendimiento.

Pero la GTX 750 Ti, cuyo rendimiento es claramente más bajo, ofrece una gran estabilidad de rendimiento, ya que a pesar de sus 29 fps medios, pocas veces baja de 24/25 fps, mínimo para mantener la sensación de fluidez en una animación. Y además esto lo hace con poca variación interframe de las latencias de renderizado, lo cual ayuda a que la experiencia visual sea fluida. Esta misma gráfica con esta calidad pero sin AA, va muy bien en este juego. Y muy a pesar de que las frecuencias bailan lo suyo para mantener el TDP objetivo de la gráfica, que es no pasar nunca de 60W.

Para el que no quiere gastarse una fortuna en gráfica, es una opción que además ni va a notar en facturas de la luz, aunque la ponga trabajando todo el día durante todo el año (por ejemplo, en minería).

PD: Aún así, la entrega de frametimes en juegos 3D nunca es perfecta, para que así fuera tendrían que representarse de forma gráfica los timeframes como una línea horizontal en la tasa de fps deseada, digamos que en 33 ms. Y esa tasa de fps de 30 llegaría para engañar al mejor ojo sobre que es suave, es más que suficiente. Son las irregularidades de la entrega de frames más los tiempos que se representan en éstos (la información visual renderizada), la que rompe la sensación de fluidez. Y por eso se usa una aproximación de fuerza bruta en el render 3D en tiempo real para atacar el problema, ofreciendo tasas de fps mucho más altas que las estrictamente necesarias, para asegurar así que las irregularidades nunca lleguen a bajar de los mínimos necesarios.
 
si quizas sea una perogrullada lo de 30 fps de media con 30ms de latencias pero como el framerate no es constante nunca tampoco lo es el frametime.

Las peliculas las ves a 24 fps constantes, yo en las pelis por ejemplo de muchos movimientos de camara,como pelis de accion,las veo muy laguedas incluso en tvs de mil y 1600hz a pesar de que las latencias a ese framerate puedan ser constantes.

El frametime es muy varible en funcion del framerate max medio que tengas, si este es bajo las latencias son mayores produciendo mas senscion de lagueo en la imagen, por contra en framerates muy altos las latencis son muy pequeñas si no hay enormes fluctuciones.
Por ejemplo el crysis 3 si los mueves a 180 fps de media en opciones medias bajas a 1440p,con mi sli de 780 por ejemplo, frametime es bajisimo entre 3 y 8 ms casi constantes con lo que la sensacion de fluidez es sobresliente. COn framertes de 70 a 90 fps de media la cosa cambia bastante subes de 12ms a 20ms las latencias y eso aunque parezca poco se nota una burrda o por lo menos yo.

Con g-sync eso seria de 0ms constante eso si seria fluidez absoluta, lo demas produce lagueo sea lo que sea se nota y un vez que has probado el g-sync te "ries" de todo lo demas. Yo lo he visto en directo y es increible.
 
si quizas sea una perogrullada lo de 30 fps de media con 30ms de latencias pero como el framerate no es constante nunca tampoco lo es el frametime.

Las peliculas las ves a 24 fps constantes, yo en las pelis por ejemplo de muchos movimientos de camara,como pelis de accion,las veo muy laguedas incluso en tvs de mil y 1600hz a pesar de que las latencias a ese framerate puedan ser constantes.

El frametime es muy varible en funcion del framerate max medio que tengas, si este es bajo las latencias son mayores produciendo mas senscion de lagueo en la imagen, por contra en framerates muy altos las latencis son muy pequeñas si no hay enormes fluctuciones.
Por ejemplo el crysis 3 si los mueves a 180 fps de media en opciones medias bajas a 1440p,con mi sli de 780 por ejemplo, frametime es bajisimo entre 3 y 8 ms casi constantes con lo que la sensacion de fluidez es sobresliente. COn framertes de 70 a 90 fps de media la cosa cambia bastante subes de 12ms a 20ms las latencias y eso aunque parezca poco se nota una burrda o por lo menos yo.

Con g-sync eso seria de 0ms constante eso si seria fluidez absoluta, lo demas produce lagueo sea lo que sea se nota y un vez que has probado el g-sync te "ries" de todo lo demas. Yo lo he visto en directo y es increible.

24 fps/Hz es bastante menos que 30 Hz/fps (+25% de tasa el último valor), así que evidentemente puede pasar lo que dices, por eso hay alguna película rodada a tasas distintas a los 24 típicos del cine. Las teles de "1600 Hz" no son más que una mala trampa técnica que usa interpolación entre frames para simular los frames intermedios, y ni siquiera son reales el número de Hertzios que anuncian.

3-8 ms es algo que te da exactamente igual, esos tiempos están bastante por debajo de la tasa en que el ser humano puede notar diferencias de fluidez, teniendo en cuenta que no somos capaces de procesar imágenes mostradas en menos de 13 ms, y normalmente tardamos algo más (eso está muy al límite en que se demuestra que hemos percibido esa imagen como "real", por debajo de este tiempo de exposición, simplemente no la vemos o procesamos, es el límite donde hay algún "positivo" más que puro valor azaroso en un estudio del MIT sobre el tema). Lo que importa son las tasas altas de latencia, y esa latencia tiene que ver sólo con el tiempo que tarda la gpu en procesar la imagen (que por otro lado, estamos hablando de gpus, no de monitores).

Esto viene a juego de Gsync, Gsync tardará "cero" ms extra por no tener que esperar un VBlank, pero eso no quiere decir que se tarde "0 ms", se tarda exactamente lo mismo en la gpu en procesar (con suerte, Gsync, que a pesar de todo NO es realmente 0 ms, aunque se acerque, puede ser tan rápido como no tener activado vsync en un monitor normal, eso sí, sin artefacto alguno en pantalla y con la información correcta por pantallazo mostrado). Esto es, si la gpu tarda 33 ms, seguirá tardando 33 ms, esto es lo que cuentan programas como FRAPS, no cuentan los ms extra que necesita el monitor para mostrar una imagen, sólo cuentan el tiempo que hay entre envíos desde el driver gráfico de frames a procesar a la gpu, y por tanto el tiempo que tarda el sistema en procesar un frame.

Creo que todo eso lo he dicho ya, y ahí están las gráficas de timeframes de la 750Ti dando valores por encima de 24 fps en el 99% de su tiempo (casi literalmente, mantiene realmente un corte de 23 fps donde sólo baja de esto en un 1% de los frames), es eso lo que me había sorprendido, que fuera bastante estable incluso a tasas así de bajas, que están demasiado cerca de la falta de sensación de animación y cerca de ver los "saltos" entre frames. Pero bueno, todo esto realmente no tiene que ver con el tema de la GTX 660 y sus 2 GB asimétricos, que de todas formas ya se ve que va algo mejor de lo que parecía en ciertos casos (puede verse realmente afectada por la memoria asimétrica, pero no es algo tan grave como mucha gente piensa, suele acabar mucho antes el músculo la gpu que la VRAM).
 
Arriba