• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

AYUDA Gráfica para jugar "ULTRA" en 1080p

Vaya, tienes 60fps más que el resto de las 980ti. Es decir, te rinde un 90% más a 900p, casi un 100% a 1080p, sobre un 60% a 1440p, peeeeeeeero sólo sacas 5 o 6 fps a 4k. O a lo mejor es que no pones los mismos parámetros: http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/18.html



Tranquilo que te acabo de grabar el vídeo demostrativo donde queda bien claro lo que decía, donde una imagen vale mas que mil palabras y sin trampa ni cartón se ve evidentemente como se pierden mas frames en cada bajada de resolución de los que se muestran en esa web (techpowerup) ya en mi opinion algo "dudosa."

Como ves de 900p a 1080p bajo unos 25-30 fps de media, de 1080p a 1440p otros 35-40 y de 1440p a 2160p otros 35. Eso es lo normal y sino que lo pruebe alguien grabando con esos parámetros y lo suba como yo en una 980ti con algo de overclock. Lo que no me creo es que de 900p solo tengan 75 fps y vayan a 1080p y solo bajen 8fps :roto2rie: Luego de 1080p a 1440p bajan solo 16fps que aun lo veo poco y de 1440p a 2160p bajan 20 que ya lo vería mas normal aunque poco, mínimo deberían ser 25 a 30. No tiene ni pies ni cabeza vamos, si alguien se aburre y tiene tiempo o ganas que lo pruebe en las condiciones de mi vídeo(que son los mismas que en techpowerup) y lo muestre como hago yo, lo suyo seria en esa zona del mapa para estar en el mismo escenario de prueba, hora del dia 12:00 de la mañana para mas datos.

P.D: ya para acabar de reírme de esos datos sin objetividad de esa web vemos en el assassin´s cred unity como con la 980ti a 1440p obtienen 34.4fps de media y a 2160p 35.1 fps de media :meparto: vamos, unos datos super fiables a medida que voy analizando encuentro mas incongruencias. Pues vaya review mas seria y objetiva oye! http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/6.html

Otro ejemplo de cagada mal testeada: crysis 3 a 900p les da 61.9 fps a 1080p 61.4 fps :eek:k: vamos seguro que si!!! a ver si el tester se dejo el v-sync activado...:memeo: http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/11.html
Ya no he seguido mirando por que para que, no...?¿ en fin tu sigue tomando esa web como referente que andarás super bien informado vamos. ;-)


The Witcher 3 Testing 900p/1080p/1440p/2160p ultra, no hairworks. Single 980ti oc

https://www.youtube.com/watch?v=IGPK3cDaJcE


Se esta procesando el vídeo que he subido en media horita se podrá ver a 1440p/60fps, paciencia.

Saludos y ya me rebatirás con argumentos de peso que te parecen las pruebas aportadas.
 
Tranquilo que te acabo de grabar el vídeo demostrativo donde queda bien claro lo que decía, donde una imagen vale mas que mil palabras y sin trampa ni cartón se ve evidentemente como se pierden mas frames en cada bajada de resolución de los que se muestran en esa web (techpowerup) ya en mi opinion algo "dudosa."

Como ves de 900p a 1080p bajo unos 25-30 fps de media, de 1080p a 1440p otros 35-40 y de 1440p a 2160p otros 35. Eso es lo normal y sino que lo pruebe alguien grabando con esos parámetros y lo suba como yo en una 980ti con algo de overclock. Lo que no me creo es que de 900p solo tengan 75 fps y vayan a 1080p y solo bajen 8fps :roto2rie: Luego de 1080p a 1440p bajan solo 16fps que aun lo veo poco y de 1440p a 2160p bajan 20 que ya lo vería mas normal aunque poco, mínimo deberían ser 25 a 30. No tiene ni pies ni cabeza vamos, si alguien se aburre y tiene tiempo o ganas que lo pruebe en las condiciones de mi vídeo(que son los mismas que en techpowerup) y lo muestre como hago yo, lo suyo seria en esa zona del mapa para estar en el mismo escenario de prueba, hora del dia 12:00 de la mañana para mas datos.

P.D: ya para acabar de reírme de esos datos sin objetividad de esa web vemos en el assassin´s cred unity como con la 980ti a 1440p obtienen 34.4fps de media y a 2160p 35.1 fps de media :meparto: vamos, unos datos super fiables a medida que voy analizando encuentro mas incongruencias. Pues vaya review mas seria y objetiva oye! http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/6.html

Otro ejemplo de cagada mal testeada: crysis 3 a 900p les da 61.9 fps a 1080p 61.4 fps :eek:k: vamos seguro que si!!! a ver si el tester se dejo el v-sync activado...:memeo: http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/11.html
Ya no he seguido mirando por que para que, no...?¿ en fin tu sigue tomando esa web como referente que andarás super bien informado vamos. ;-)


The Witcher 3 Testing 900p/1080p/1440p/2160p ultra, no hairworks. Single 980ti oc

https://www.youtube.com/watch?v=IGPK3cDaJcE


Se esta procesando el vídeo que he subido en media horita se podrá ver a 1440p/60fps, paciencia.

Saludos y ya me rebatirás con argumentos de peso que te parecen las pruebas aportadas.
Jajajajaja. Buen intento. En esas condiciones mi 390 escupe 80fps. Vete a Novigrado, que es dónde prueban siempre este juego para hacer los test y no en un paraje sin nada. Ah y tengo un i5 2500 sin OC, así que supongo que puede ir mucho mejor.

Sabía que no grabarías el vídeo en una ciudad grande [emoji1]
 
Jajajajaja. Buen intento. En esas condiciones mi 390 escupe 80fps. Vete a Novigrado, que es dónde prueban siempre este juego para hacer los test y no en un paraje sin nada. Ah y tengo un i5 2500 sin OC, así que supongo que puede ir mucho mejor.

Sabía que no grabarías el vídeo en una ciudad grande [emoji1]



Da igual el sitio, la diferencia entre resoluciones será la misma en proporción a la resolucion: es decir bajaré 25-30 de 900p a 1080p 30-35 de esa resolución a 1440p y otros tantos a 2160p dependiendo de los máximos que en ciudad no discuto sean menores (que no mucho ya veras) la proporción se mantenedra en ese baremo de bajada de media de fps por subida de resolución, parece que no me pillas.

Luego como me explicas lo del crysis3,Assassin creed unity..? No respondes nada a ese epic fail?...

Hare lo de novingrado para que te quedes contento y satisfecho...a ver que me dices luego?...

Edit: aquí tienes el vídeo donde tu querías, en 30 minutos se podrá ver a mayores resoluciones.

https://www.youtube.com/watch?v=47nI5c5bSpk
 
Última edición:
Primero de todo, las pruebas que ellos hacen son sin OC y tú tienes la tuya a 1501. Creo que, evidentemente, no es lo mismo. Si yo con una 390 gano 10fps de media con OC moderado, tú con Maxwell, ese OC y una 980ti ganarás, en medias con muchos frames, 30 o 40. Segundo, es lógico que según subes resolución pierdas más frames porque el OC hace mucho menos cuantos menos frames tienes (si tienes 80 sin OC puedes ganar 20 o 30, pero si tienes 30 ganarás 4 o 5) y si te fijas sigues teniendo más fps que la 980ti de la review sin OC en todas las resoluciones. Y por lo que se ve, los fps bajan en proporción. Igual sin OC te acercas más a esas cifras.

Edito: Algo se me escapa porque las cifras en The Witcher 3 con la 390 son más bajas que las mías y yo con mucho peor procesador. http://www.techpowerup.com/mobile/reviews/Sapphire/R9_390_Nitro/18.html

Igual se olvidaron de desactivar Hairworks xD.
 
Pues acabo de medir con el Fraps la media con todo en ultra (incluido HBAO+ que a las AMD las perjudica mucho pero con Hairworks desactivado) a 1080p en Novigrado y me da 44.01 donde en Techpowerup da 34.9 y con un procesador mucho mejor que mi 2500 stock.

Así que ZeusEnte, te debo una disculpa porque tenías razón. De todos modos hay que saber exactamente cómo cojones les da ese resultado. Ahora voy a probar en 900p y 1440p que es el máximo que puedo.

Edito: A 900p 45.199, a 1080p 44.017 y a 1440p 41.475. Como podéis ver las diferencias son mínimas entre resoluciones en mi caso.

Decir que las condiciones son exactamente las mismas y pasando todas las veces por el mismo lugar. AMD tuviera algo como el Shadowplay os grababa un vídeo pero sólo os puedo mandar una foto del txt que me genera el Fraps xD

01e8ba1838928ee118906dd8e488da1d.jpg
 
Más curiosidades: a 1024x768 tengo 46.261 fps y a 3200x1800 (VSR) 35.314 fps. Es decir, no sé si tengo un cuello de botella importante por culpa del procesador, este juego está muy mal optimizado o los de Techpowerup hicieron la review borrachos.
 
Pues acabo de medir con el Fraps la media con todo en ultra (incluido HBAO+ que a las AMD las perjudica mucho pero con Hairworks desactivado) a 1080p en Novigrado y me da 44.01 donde en Techpowerup da 34.9 y con un procesador mucho mejor que mi 2500 stock.

Así que ZeusEnte, te debo una disculpa porque tenías razón. De todos modos hay que saber exactamente cómo cojones les da ese resultado. Ahora voy a probar en 900p y 1440p que es el máximo que puedo.

No hombre no me debes ninguna disculpa compañero, solo faltaría. Estamos debatiendo sobre lo que cada uno cree mas correcto, tu por tu lado dabas por hecho que los resultados de techpowerup eran correctos y objetivos y yo me basaba en mi experiencia que difiere bastante sobre lo que ahí nos muestran.

Por otro lado te recordare que la Zotac GeForce GTX 980 Ti AMP! Extreme va a un reloj base de 1253mhz que con el boost 2.0 se pondría entre los 1400 y los 1450mhz de casa sin tocar nada. La mía tiene un reloj base de 1152 y con el boost 2.0 ella sola se me pone a 1367mhz luego sube 215mhz. Vamos a ser pesimistas y pensar que la zotac no suba 215mhz y solo suba 150mhz sobre su reloj base, estaría en torno a los 1403mhz. La mia iba a 1501mhz (por cada 100mhz al core subes 4-5 fps) en el caso de las 980ti a groso modo, te lo digo para tu información mas que nada porque decías que con mi oc subía 30 o 40 fps... nada mas lejos de la realidad.( ya me gustaría que así fuera :sehseh)


Por otro lado tengo dos cosas que juegan en mi contra, que igual no te planteaste. Por una parte seria el hecho de estar grabando ( con lo que se bajan algunos fps) y por el otro que uso el custom preset sweetfx que le hice para que luzca mejor el witcher3 que a su vez hace que pierda entre 4 y 5 fps de media.

Luego me he pasado por otra review en guru 3d de la misma zotac y mira lo que me encuentro:

http://www.guru3d.com/articles_pages/zotac_geforce_gtx_980_ti_amp_extreme_review,15.html

Vemos que la misma zotac a 1600 x 1200 (obtienen 98 fps ) le saca 23 fps de media en los mismos parámetros a la zotac de techpowerup a 1600x900 ( aun incluso menor resolución ) sacan 75fps.

Luego a 1980 x 1200 tienen en guru con la zotac 88 fps y en techpowerup a 1980 x1080 ( otra vez menos resolucion) 67 fps de media, luego son 21 fps de diferencia en la misma gráfica.

Vayamos a 2560 x 1440 aquí ya usan la misma resolución en ambos casos: en guro obtienen 69 fps de media y en techpowerup 51 fps , por tanto 18 fps de diferencia.

Y ya para acabar en 4k guro obtiene 43 fps y techpowerup 31, lo cual a esa vasta resolución es una barbaridad de diferencia también.

Por tanto si aplicamos las matemáticas y la cosa no cuadra por ningún lado, mires por donde lo mires.


En mis testeos me ajusto mucho mas a los resultados obtenidos en guru3d que a los de la otra web.

Para que la zotac de techpowerup pudiera compensar esa diferencia de fps deberia ir subida( si aplicamos lo que te dije de que cada 100 mhz al core subes 4-5 fps la media) 400mhz a su reloj para obtener esos resultados de guru 3d.

Conclusión los resultados obtenidos en techpowerup no son nada fiables ademas si sumamos las cagadas del assassins creed unity, crysis 3 etc, a 1440p y 4k dando 1 fps mas a 2160p que a 1440p... pues ya con eso acabo de rematar, no crees?


EN fin aun asi te podria hacer otro video a 1253 mhz de reloj base para imitar los mismos clocks que la zotac de techpowerup y veras como mis cifras van a diferir igualmente, bajare menos de 5 fps vs mis testeos anteriores porque en ellos estaba a 1280mhz de reloj base que con el boost 2.0 se plantaba a 1501mhz luego me queda quitarle el sweetfx que estaba habilitado en mis videos y al final la diferencia seria la misma, en cualquier caso si tienes interes te lo hago.

Saludos.
 
No hace falta. Ya sólo con ver mis resultados me queda claro que hay algo que no encaja. No puede ser que ellos con ese equipazo tengan menos fps que yo con el mío. Estoy seguro de que hay algo que no sabemos aunque no lo entiendo. Igual de las 3 opciones de Hairworks tienen alguna activada, porque no es normal.
 
Pues acabo de medir con el Fraps la media con todo en ultra (incluido HBAO+ que a las AMD las perjudica mucho pero con Hairworks desactivado) a 1080p en Novigrado y me da 44.01 donde en Techpowerup da 34.9 y con un procesador mucho mejor que mi 2500 stock.

Así que ZeusEnte, te debo una disculpa porque tenías razón. De todos modos hay que saber exactamente cómo cojones les da ese resultado. Ahora voy a probar en 900p y 1440p que es el máximo que puedo.

Edito: A 900p 45.199, a 1080p 44.017 y a 1440p 41.475. Como podéis ver las diferencias son mínimas entre resoluciones en mi caso.

Decir que las condiciones son exactamente las mismas y pasando todas las veces por el mismo lugar. AMD tuviera algo como el Shadowplay os grababa un vídeo pero sólo os puedo mandar una foto del txt que me genera el Fraps xD

01e8ba1838928ee118906dd8e488da1d.jpg

Aqui te dejo en guru3d un review de la 390 y la 390x para que puedas comparar con los tuyos:

http://www.guru3d.com/articles_pages/powercolor_radeon_r9_390_pcs_8gb_review,15.html

http://www.guru3d.com/articles_pages/asus_radeon_r9_390x_strix_8g_review,15.html

Observaras que de 1920x1200 que es algo mas de lo que tenias tu vs 2560x1440 se bajan 10 en la 390. Luego observo que a 1600x900 tienes 45 algo bajo vs los 54 a 1600x1200 de guru 3d.

Tambien veo que el tiempo de tus 3 benchs no es el mismo, tienes 67,58 y 72 segundos. Lo suyo seria al menos 5 minutos cada bench y el mismo tiempo el los 3 casos.

En la web de techpowerup dice calramente sin hairworks mira: The Witcher 3 sees the introduction of the REDengine 3 game engine, which is specifically designed for open world RPG environments. It takes advantage of DirectX 11 with tessellation, and some post-processing effects.In the interest of neutrality, we ran the game with HairWorks disabled.
Luego dice: Benchmark scores in other reviews are only comparable when this exact same configuration is used.
All video card results are obtained on this exact system with exactly the same configuration.
All games are set to their highest quality setting unless indicated otherwise.
AA and AF are applied via in-game settings, not via the driver's control panel.

Es decir todos los benchmarks scores han sido ejecutados a los max. parametros al máximo, excepto si indicansen lo contrario. Que en el caso de witcher indican claramente hariworks disabled ( deshabilitado ).

Dicho esto no me comeria mucho mas el tarro y dejaria de mirar como referente esa web y miraría alguna otra mas objetivas en sus resultados como guru3 u otras.
 
Última edición:
Las diferencias entre mis datos y los de Guru3D son más normales puesto que tengo bastante peor micro y creo que en ese juego se nota. No es normal que entre 1024x768 y 1440p haya esa mierda de diferencia de 5 fps en mi caso.

En cuanto a lo del tiempo, pues como que 5 minutos dando la misma vuelta me cansa un poco xD. Yo creo que tal y como lo hice llega. Iba por las mismas calles y plazas. Eran unas 3 vueltas iguales cada vez. Más o menos xD
 
Si asi es, y de una 970 de ref que iban si no recuerdo mal a 1126,de reloj base y nada las memos a una 970 custom facilmente oceable a 1500 y pico y 8000mhz memos ganas de un 35%-40% en la mayoría de los casos.
Ejemplo heaven 4.0 1080p ultra extreme 8xAA una de ref anda por los 50fps pelados. Con OC a 1575-1580mjz/8200mhz me plantaba yo con la mía en 67 y pico fps de media. En los juegos era lo mismo a 1080p y algo menos en 1440p
Me da que tu no has tenido una 970 tampoco, 8000mhz de memorias. Aparte a 1500 de reloj no ganas 35-40%, te diría que ni 10% llega. Pero tu a tu royo. El oc de una 970 es una puta basura frente a las 290.

Enviado desde mi Redmi Note 2
 
Que no pare la fiesshhhtaaa!!! xD

Hace menos de 2 semanas que me pille equipo nuevo, dude muchísimo si 390/970 en muchos sitios me recomendaban la 970 así que me fui a x ella ( no podía esperarme a las nuevas gráficas que tan x llegar) incluso hace nada seguía dudando si hice bien en pillarla, en mi post del pc lo comenté y volvieron a decirme lo mismo...

De momento estoy encantadisimo con ella, sólo me pegue un susto al hacerle OC ( se me quedo en los 540mhz en el core, según furmark) se ve que se me corrompió afterburner...

Me decliné por la 970 x su OC, pero ¿ es cierto que cubre la garantía si la lias haciendo OC? Decir también que no toco voltaje, x lo que no hay mucho riesgo de joderla, ¿no?

Estoy aprendiendo poco a poco sobre esto del OC, me mola el rollito, me entretiene mucho tu...

Sobre el eterno debate 390/970 yo creo que tan muy parejas en rendimiento, aunque haciéndole OC a 970 las supera, lo único que esos 4gb de más pues si que es un puntazo

También me da más confianza nvidia x sus drivers ya que los veo más depurados

He leído que dx12 sumará las VRAM ¿ esto es cierto? Pk si es así, cada vez tengo más claro hacer el sli a 970, si no la otra opción es aguantar con ella un buen tiempo y luego venderla para pillarme una 980ti o ¿pascal/polaris? Dependiendo su precio/rendimiento

Un saludo!!

Enviado desde mi SM-N9005 mediante Tapatalk
 
Vaya, tienes 60fps más que el resto de las 980ti. Es decir, te rinde un 90% más a 900p, casi un 100% a 1080p, sobre un 60% a 1440p, peeeeeeeero sólo sacas 5 o 6 fps a 4k. O a lo mejor es que no pones los mismos parámetros: http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/18.html

Tengo una 980 ti G1 y puedo confirmar lo que dice el forero, es la diferencia, que tu para sustentar tus argumentos te basas en lo que dice otra gente o algo que has leido y el te aporta pruebas con lo que el mismo tiene.
Tengo un monitor 1440p y me compre la 980ti precisamente para jugar a 60 fps estables, y los tengo como una roca, y si quito el limitador, suben aun mas.
Cada vez que te contesta rebatiendo lo que dices le pones una excusa.
"ah, esque no es una ciudad"
"ah, esque lo que he leiod era de stock y tu la tienes OC"
Por favor, la g1 hace 1500 con el voltaje de stock, la mia de fabrica se pone en 1390 mhz.

Siento el tono pero el forero te ha contestado todas las veces con toda la paciencia del mundo.

Edito:He visto que has rectificado.
Me disculpo por el tono otra vez.
 
Tengo una 980 ti G1 y puedo confirmar lo que dice el forero, es la diferencia, que tu para sustentar tus argumentos te basas en lo que dice otra gente o algo que has leido y el te aporta pruebas con lo que el mismo tiene.
Tengo un monitor 1440p y me compre la 980ti precisamente para jugar a 60 fps estables, y los tengo como una roca, y si quito el limitador, suben aun mas.
Cada vez que te contesta rebatiendo lo que dices le pones una excusa.
"ah, esque no es una ciudad"
"ah, esque lo que he leiod era de stock y tu la tienes OC"
Por favor, la g1 hace 1500 con el voltaje de stock, la mia de fabrica se pone en 1390 mhz.

Siento el tono pero el forero te ha contestado todas las veces con toda la paciencia del mundo.

Edito:He visto que has rectificado.
Me disculpo por el tono otra vez.
Ya me parecía a mí jajajaja.

No pasa nada :)
 
Era la hora de entrada al trabajo, era odio contra el mundo :roto2temeto:
Yo odio todo el día a todo el mundo. Por eso no quiero ser como ellos y reconocer mis errores me ayuda a ello.
 
¿Se sabe algo de que dx12 sume las VRAM?

Enviado desde mi SM-N9005 mediante Tapatalk
 
Visto lo visto con el Quantum Break, directx 12 timo por ahora xD
 
Pues con watchdogs 2 nos reiremos xD
 
Arriba